Archiv verlassen und diese Seite im Standarddesign anzeigen : Erfahrungsthread GeForce GTX 470/480 (Fermi)
Mayk-Freak
2010-04-23, 19:58:16
Hab mal Fotos gemacht wo man das sieht und wie gesagt das passiert im Standardtakt der und bei ausreichend Kühlung bei zwei getesteten Karten.
http://www.abload.de/thumb/fehlerk4ew.png (http://www.abload.de/image.php?img=fehlerk4ew.png)
http://www.abload.de/thumb/fehler2r1b3.png (http://www.abload.de/image.php?img=fehler2r1b3.png)
hq-hq
2010-04-23, 20:00:08
sehen diese aufblitzenden "flares" so aus wie bei mir ?
kommen durch niedrige gpu spannung, oder zu hohen ramtakt (abhängig von gpu takt)
http://freenet-homepage.de/hauptquartier/flares.jpg
ok das sind wohl die gleichen flares, also leider muss ich dir mitteilen das du die gpu spannung erhöhen oder den ramtakt absenken müsstest ^^
möglicherweise ist das auch noch irgend ein komischer bug der mit einem der nächsten treiber gefixt wird.
takte doch mal probeweise die gpu um 50mhz runter das müsste wahrscheinlich auch gehen
Mayk-Freak
2010-04-23, 21:59:03
Die gleichen flares wie du habe ich auch bei Heaven Benchmark wenn was mit der Spannung oder Ram Takt nicht paßt.Ich hab jetzt noch mal den GPU Takt abgesenkt hat aber nichts gebracht bei Vantage Extreme das einzige was geholfen hat war umstellen von Extreme auf Performens.
hq-hq
2010-04-23, 22:31:58
das is ja mal wirklich strange, und gpu spannung ein bissl aufdrehen um 0,035v oder sowas ?
auf der anderen seite, das is doch sicher ein treiberbug, wieso sonst sollten effekte eingefügt werden wo keine hingehören ?
Orbmu2k
2010-04-23, 23:01:21
Also ich wollt grad mal DIRT2 spielen auf einer einzelnen 480. Irgendwas ist da faul. VSYNC ist an 30" 2560x1600
Alles grösser 60fps soweit ok. Aber ab da wirds einfach nur grausam. bei 45fps Mikrostottern ober heftig und bei 30fps dazu noch ein Inputlag vom allerfeinsten.
Also das lief auf meiner GTX280 deutlich smoother bei vergleichbaren FPS.
Kann das jemand bestätigen?
Ich mein das Ziel kann ja nicht sein wieder alle Settings runter zu setzen damit man über 60fps kommt. Dnn bin ich bei den gleichen Settings wie mit der 280.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/21/
Demnach macht es keinen Sinn, sich eine GTX480 zuzulegen, wenn die CPU im Rechner kein gut übertakteter QuadCore (neueren Typs) ist!
hä?
3.87GHz ,GTX480
CoD5: 2 Kerne: 90.1fps, 4 Kerne: 88.9fps
WiC: 2 Kerne: 136.2fps, 4 Kerne: 148.5fps
los Quadcores kaufen, marsch marsch :ubash2:
CB labert einfach Mist
Die GeForce GTX 480 lechzt dagegen nach CPU-Leistung, da die Grafikkarte schon bei 2,92 GHz eine spürbar niedriger Leistung bietet
bei 14% mehr Leistung in CoD zwischen 1.6Ghz DC vs. QC merkt man das ganz deutlich...alles klar
und zwischen 2.26 und 3.87 sinds in WiC 18%, Wahnsinn...da wird der Unterschied zwischen 2.92 und 3.87 wahrscheinlich noch größer ausfallen
Wer eine GTX 480 sein Eigen nennt, hat sowieso meistens einen i7 im Rechner, mit sehr hoher Wahrscheinlich aber kaum noch einen DC.
urfaust
2010-04-24, 00:05:01
Btw. mit dem neuen Board statt ~17k nun ~19k im 3D Mark 06 bei gleichem Takt wie mit dem alten Board. Uglaublich aber wahr... :eek:
19k hab ich mit einer einzelnen 5870 auch bei Stock Takt :P
3DMark06 kann man da wirklich nicht mehr heranziehen als Vergleich, zu CPU-lastig
19k hab ich mit einer einzelnen 5870 auch bei Stock Takt :P
3DMark06 kann man da wirklich nicht mehr heranziehen als Vergleich, zu CPU-lastig
Wurscht, die 480er suckt in 3d Mark eh aber der Boardwechsel hat mich stark verwundert und in WoW merk ich das! So jetzt noch die 3,8Ghz und alles ist in Butter :D
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/21/
Demnach macht es keinen Sinn, sich eine GTX480 zuzulegen, wenn die CPU im Rechner kein gut übertakteter QuadCore (neueren Typs) ist!
Das ist Schwachsinn. Im Handumdrehen ist man gar mit der GTX 480 in 1680x1050 oder 1920x1080 mit volle Lodde AA und AF in neuen Games mit nem 3 Ghz DC meistens am GPU-Limit. Kommt dann noch das neue "SGSSAA" in DX10/DX11 hinzu dann (fast) immer. In älteren Games wird man wohl öfters an CPU-Limit stoßen, aber das macht ja nichts. Ob 50 fps oder 70 fps machen keinen Unterschied.
Und ist man mal im Ruckelbereich dank CPU, dann wäre es mit ner anderen Grafikkarte auch passiert, aber die GTX 480 hat sich trotzdem gelohnt.
Ich habe das Gefühl, CB will etwas den High-End CPU-Markt ankurbeln?
Byteschlumpf
2010-04-24, 00:18:54
Also das kann ich nicht bestätigen, vorallem wenn man die Ordinate betrachtet, ist das ab einem bestimmten Takt fast gleich bis nach oben. Auch mit meinem q9550 @ 3,4Ghz geht die Karte brutal ab. Das was bei mir wirklich massiv gebremst hat, war mein altes P965 Board! Anscheinend ist der P45 bzw. auch PCIe 2.0 bei der 480GTX notwendig, um Leistung zu spüren.
Btw. mit dem neuen Board statt ~17k nun ~19k im 3D Mark 06 bei gleichem Takt wie mit dem alten Board. Uglaublich aber wahr... :eek:
Da ich mein Asus P5B dlx (P965) zu Tode geflasht habe, werde ich auch auf ein Board mit neuem Chipsatz (Asus Rampage Formula "X48") wechseln. Dann dürfte auch meine HD5850 die 16,7K beim 3DMark06 mit dem Q6600@3Ghz - mit hoffentlich 'ner Ecke mehr Takt - locker überbieten! :)
Ein i7-Upgrade halte ich derzeit für noch nicht notwendig.
Byteschlumpf
2010-04-24, 00:23:54
Das ist Schwachsinn. Im Handumdrehen ist man gar mit der GTX 480 in 1680x1050 oder 1920x1080 mit volle Lodde AA und AF in neuen Games mit nem 3 Ghz DC meistens am GPU-Limit. Kommt dann noch das neue "SGSSAA" in DX10/DX11 hinzu dann (fast) immer. In älteren Games wird man wohl öfters an CPU-Limit stoßen, aber das macht ja nichts. Ob 50 fps oder 70 fps machen keinen Unterschied.
Und ist man mal im Ruckelbereich dank CPU, dann wäre es mit ner anderen Grafikkarte auch passiert, aber die GTX 480 hat sich trotzdem gelohnt.
Ich habe das Gefühl, CB will etwas den High-End CPU-Markt ankurbeln?
Selber habe ich auch festgestellt, dass mein Q6600@3Ghz oder mein Q9550@Stock (selbes Leistungsniveau) locker zum Zocken genügen! Das sehr CPU-lastige GTA IV läuft da schon mit einer G80/G92 GTS oder einer HD5850 butterweich! :)
Daher interessiert ja auch besonders, wie die neue GTX mit S775 QuadCores laufen, da der S775 noch weit verbreitet ist.
Ph0b0ss
2010-04-24, 00:31:09
[url]Temps sind eigentlich noch ok für die erste GPU, aber die zweite hat schon 10 Grad mehr- was eine dritte macht, werde ich wohl dann herausfinden müssen :ugly:
Vielleicht werde ich auch einen Splitter nutzen, der nach der CPU ansetzt- dann bekämen alle 3 Gpus das gleichwarme Wasser ab und nicht immer die heißen Abwässer der Vorgängerin :)
Btw, in echten games bleibt die 2. Gpu im 5x°C Bereich...
Also mit 2 Gpus sehe ich keine Probs, selbst mit OC nicht, aber bei 3...hmmm :)
Der Tempunterschied könnte auch daran liegen, das die Karten verschiedene Vgpu-Last haben. Im Luxx haben sie Biose ausgelesen, da war zwischen 0.988V - 1.050V alles dabei. Wenn der IHS der einen Karte noch dazu schlecht sitzt, könnte das die 10°C erklären. Ansonsten einfach mal die Reihenfolge der Karten im Kreislauf tauschen.
http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-480-gtx470-bios-files-709922.html
tombman
2010-04-25, 00:39:48
Ok, 3. Karte ohne Wakü (nachbestellt) provisorisch eingebaut. (3x 480 @ 800/1600/2000: 2x Wakü, 1x Air)
Stalker CS geht endlich spielbar @ 19x12 maxxed:
http://www.abload.de/img/xrengine2010-04-2423-07hfu.png (http://www.abload.de/image.php?img=xrengine2010-04-2423-07hfu.png)
Heaven 2.0, maxxed, kommt auch geiler mit 3 Karten:
2x 480:
http://www.abload.de/img/2x480rgo0.png (http://www.abload.de/image.php?img=2x480rgo0.png)
3x 480:
http://www.abload.de/img/3x480qdn7.png (http://www.abload.de/image.php?img=3x480qdn7.png)
Btw, Crysis VH und Vantage X sind bei 3Ghz cpu-limitiert :eek:
Ok, 3. Karte ohne Wakü (nachbestellt) provisorisch eingebaut. (3x 480 @ 800/1600/2000: 2x Wakü, 1x Air)
Stalker CS geht endlich spielbar @ 19x12 maxxed:
http://www.abload.de/img/xrengine2010-04-2423-07hfu.png (http://www.abload.de/image.php?img=xrengine2010-04-2423-07hfu.png)
Heaven 2.0, maxxed, kommt auch geiler mit 3 Karten:
2x 480:
http://www.abload.de/img/2x480rgo0.png (http://www.abload.de/image.php?img=2x480rgo0.png)
3x 480:
http://www.abload.de/img/3x480qdn7.png (http://www.abload.de/image.php?img=3x480qdn7.png)
Btw, Crysis VH und Vantage X sind bei 3Ghz cpu-limitiert :eek:
Tombman, Du bringst mich in Versuchung.:frown: :biggrin:! Ich wollte eigentlich nur SLI.
Iruwen
2010-04-25, 02:45:32
Das ist auch SLI, nur 3-Way/Triple halt ;)
Byteschlumpf
2010-04-25, 02:55:50
Nicht schlecht, Tombmann! :)
Könntest du noch Fluidmark-Werte mit 1, 2 und 3 GPUs nachliefern, ebenso CryostasisTD und "Vantage High"?
Wie GTA IV (V 1.0.0.4) mit der GTX480 (1,2,3) performt, würde mich auch noch interessieren!
tombman
2010-04-25, 09:16:08
GTA4 rennt saugeil mit GTX480- endlich ist das Teil MAXIMIERT mit 100% Sichtweite spielbar :)
Ca 1.2x GB VRAM auf 1920x1200 frißt das Teil nämlich- das war für GTX295 eindeutig zu viel.
Dir anderen -marks mach ich später irgendwann...
Btw: 1280 Watt hab ich schon aus der Steckdose gezogen, ohne cpu oc :ugly:
(3x GTX480 @ 800/1600/2000, 1.05 v, furmark maxxed)
dargo
2010-04-25, 09:30:28
Btw, Crysis VH und Vantage X sind bei 3Ghz cpu-limitiert :eek:
Das verwundert mich überhaupt nicht bei 3x GTX480 und "nur" 1920x1200. :D
Ok, 3. Karte ohne Wakü (nachbestellt) provisorisch eingebaut. (3x 480 @ 800/1600/2000: 2x Wakü, 1x Air)
Stalker CS geht endlich spielbar @ 19x12 maxxed:
http://www.abload.de/img/xrengine2010-04-2423-07hfu.png (http://www.abload.de/image.php?img=xrengine2010-04-2423-07hfu.png)
Heaven 2.0, maxxed, kommt auch geiler mit 3 Karten:
2x 480:
http://www.abload.de/img/2x480rgo0.png (http://www.abload.de/image.php?img=2x480rgo0.png)
3x 480:
http://www.abload.de/img/3x480qdn7.png (http://www.abload.de/image.php?img=3x480qdn7.png)
Btw, Crysis VH und Vantage X sind bei 3Ghz cpu-limitiert :eek:
Die 3. Karte reißt es raus...da muß NV aber noch kräftig an den Treibern werkeln....sonst brauchs eigendlcih kein SLI..Geld>Leistung
Single >Heaven je nach OC ~24 zu SLI....
Mayk-Freak
2010-04-25, 21:14:28
das is ja mal wirklich strange, und gpu spannung ein bissl aufdrehen um 0,035v oder sowas ?
auf der anderen seite, das is doch sicher ein treiberbug, wieso sonst sollten effekte eingefügt werden wo keine hingehören ?
Muß wahrscheinlich mit Windows 7 zusammhängen hab mal Vista installiert und Vantage+patch und siehe da die aufblitzenden Sterne waren nicht mehr da.
GTA4 rennt saugeil mit GTX480- endlich ist das Teil MAXIMIERT mit 100% Sichtweite spielbar :)
Ca 1.2x GB VRAM auf 1920x1200 frißt das Teil nämlich- das war für GTX295 eindeutig zu viel.
Dir anderen -marks mach ich später irgendwann...
Btw: 1280 Watt hab ich schon aus der Steckdose gezogen, ohne cpu oc :ugly:
(3x GTX480 @ 800/1600/2000, 1.05 v, furmark maxxed)
Was für ein NT benutzt du??
Krass, dass man schon solche Werte erreicht :-)
Gruss
hq-hq
2010-04-25, 22:28:46
Muß wahrscheinlich mit Windows 7 zusammhängen hab mal Vista installiert und Vantage+patch und siehe da die aufblitzenden Sterne waren nicht mehr da.
ahmm, kannst du mal den unigine benchmark laufen lassen ob sich dort diese grünen und roten flares provozieren lassen ? /gpu spannung absenken oder ramtakt erhöhen
tombman
2010-04-25, 22:30:08
Was für ein NT benutzt du??
http://www.abload.de/img/dscf0523vdwt.jpg (http://www.abload.de/image.php?img=dscf0523vdwt.jpg)
http://rwlabs.com/images/articles/enermax/revolution85_1250/revolutiona.jpg
Das Enermax 1250 W scheint einiges auszuhalten :)
Bei 88% Effizienz ist das bereits ÜBER der Spezifikation ;D
dutchislav
2010-04-25, 22:31:04
BAH ... wie geil
schade, dass die 480gtx so teuer ist :(
eine is kein problem, ne zwote lass ich mir noch einreden, aber drei sin mir zu teuer was den frame-zuwachs anbelangt
hq-hq
2010-04-25, 22:32:31
hm wenn es einen wirkungsgrad von nahe 90% besitzen würde wärs vielleicht noch grad innerhalb der spec
urfaust
2010-04-25, 22:37:25
Stalker CS geht endlich spielbar
jupp, die Festellung habe ich heute auch gemacht, allerdings mit 5870 CF
Mit einer einzelnen 5870 kann man sich Clear Sky + max Details + 4xAA von der Backe schmieren
Mayk-Freak
2010-04-25, 22:56:50
ahmm, kannst du mal den unigine benchmark laufen lassen ob sich dort diese grünen und roten flares provozieren lassen ? /gpu spannung absenken oder ramtakt erhöhen
Ja die Flares lassen sich bei mir z.B durch zu hohen V-Ram Takt erzeugen.
http://www.abload.de/thumb/unigine2010-04-2522-51nyt7.png (http://www.abload.de/image.php?img=unigine2010-04-2522-51nyt7.png)
dutchislav
2010-04-25, 23:59:42
Was mich u.a. interessieren würde, sind die ram/spawa temperaturen bei den leuten, die einen GPU-only wasserkühler verbaut haben
hq-hq
2010-04-26, 00:20:57
- hmmm, diese flares sind richtig sch... ram übertakten ist fast nicht möglich
oh man tombman, hoffentlich feiert dein netzteil nicht doch noch mal ne sylvesterparty
tombman
2010-04-26, 00:41:15
oh man tombman, hoffentlich feiert dein netzteil nicht doch noch mal ne sylvesterparty
Johnny Guru Quote: "This is Superman's power supply, right here." ;)
http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story3&reid=145
(wobei das die US-Version ist, mit leicht anderem Namen und specs)
Johnny Guru Quote: "This is Superman's power supply, right here." ;)
http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story3&reid=145
(wobei das die US-Version ist, mit leicht anderem Namen und specs)
Na ja, seitdem ich mal Probleme mit einer Galaxy 850W hatte (eines Tages rotes Licht, kein Reset mehr möglich), traue ich den Dingern nicht mehr. Ich habe zwar ein nagelneues Netzteil innerhalb kurzer Zeit bekommen, super Service, aber es ist schon seltsam, wenn wegen nicht nachvollziehbaren Schwankungen sich das Netzteil selbst lahmlegt, und nur durch Einsenden gelöst werden kann. Aktuell werkeln bei mir noch 1 Enermax-Netzteil und mittlerweile 3 beQuiet-Netzteile (davon 2 DarkPower Pro).
Aber die über 1400 W bei tombman machen mich doch sehr nachdenklich, ob ich mit einem Dar kPower Pro 1200 hinkommen würde.
Nightspider
2010-04-26, 01:39:10
Das Revolution muss eine gewisse Überlastung aushalten können, laut Spezifikationen.
Wie lange ist eine andere Frage, vor allem wenn man wie Tombman ~200 Watt mehr an Saft zieht.
Alledings ist das schöne Stück nicht umsonst echtes HighEnd unter den Netzteilen.
Ich gebe mein Revolution 1250W auch nichtmehr her. :)
tombman
2010-04-26, 09:04:33
In normalen games oder benchmarks kommt man eh nur auf knapp 1000W, also paßt das schon...
Macht euch mal nicht ins Hemd. ;) Afterburner an, VGPU auf 0,95 Volt absenken und schon frisst so eine Triple-Kiste im Furmark über 100 Watt weniger.
MfG,
Raff
Iruwen
2010-04-26, 11:07:09
Das Revolution muss eine gewisse Überlastung aushalten können, laut Spezifikationen.
Wie lange ist eine andere Frage, vor allem wenn man wie Tombman ~200 Watt mehr an Saft zieht.
Alledings ist das schöne Stück nicht umsonst echtes HighEnd unter den Netzteilen.
Ich gebe mein Revolution 1250W auch nichtmehr her. :)
Seine 1445W sind eingangsseitig gemessen, bleiben bei 88% Effizienz 1270W ausgangsseitig übrig und die Teile haben noch Reserve.
Nightspider
2010-04-26, 12:52:56
Seine 1445W sind eingangsseitig gemessen, bleiben bei 88% Effizienz 1270W ausgangsseitig übrig und die Teile haben noch Reserve.
Das mit der Reserve weiß ich, siehe oben.
Das die Wattzahl mit der Effizienz und der Eingangsleistung so gerechnet wird wusste ich allerdings noch nicht.
tombman
2010-04-26, 13:13:15
Das die Wattzahl mit der Effizienz und der Eingangsleistung so gerechnet wird wusste ich allerdings noch nicht.
Was dachtest du denn, was Effizienz bei NTs bedeutet? :)
skampi
2010-04-26, 13:23:14
Macht euch mal nicht ins Hemd. ;) Afterburner an, VGPU auf 0,95 Volt absenken und schon frisst so eine Triple-Kiste im Furmark über 100 Watt weniger.
MfG,
Raff
Diese Aussage ist nicht mal eben so hoppalahopp und generell zu treffen.
Meine GTX470 arbeitet offensichtlich ziemlich an der Grenze, Standard VCore ist 0,950V. Schon eine Absenkung auf 0,925V lässt sie innerhalb kürzester Zeit frezzen, wohlgemerkt bei Standard Takt.
Gruß,
Skampi
Ich meinte ja auch die GTX 480. :) Da ist mir noch kein solcher "Krüppel" bekannt. Sicher, dass da alles mit rechten Dingen zugeht? 0,95V rockstable (was es sein sollte) und 0,925 bereits schnell tot ist ein verdammt kleiner Sicherheitsabstand.
MfG,
Raff
Was dachtest du denn, was Effizienz bei NTs bedeutet? :)
Wahrscheinlich dass halt nur nur 1250 Watt X 0,88 effektiver Output da ist.
Grestorn
2010-04-26, 13:42:20
Der Output ist ja "garantiert" in den Spezifikationen. Die Leistungsaufnahme wird nirgendwo exakt angegeben.
Der Output ist ja "garantiert" in den Spezifikationen. Die Leistungsaufnahme wird nirgendwo exakt angegeben.
Ist mir klar. Ich habe mich nur versucht, in die Leute reinzuversetzen, die immer wieder Probleme mit dem Begriff haben.
Mayk-Freak
2010-04-26, 14:13:16
Hab auf meine Karte das EVGA FTW Bios geflasht und mit Orbmu2k seinem
nvidiaInspector kommt man mit der Spannung jetzt auf 1,150 Volt.
http://www.abload.de/img/evga1150vc6oy.png (http://www.abload.de/image.php?img=evga1150vc6oy.png)
Woher hast du das FTW-BIOS? Techpowerup? Das hat ab Werk mehr Spannung, ergo noch mehr Verbrauch?
MfG,
Raff
Nightspider
2010-04-26, 14:30:49
Was dachtest du denn, was Effizienz bei NTs bedeutet? :)
Das unser Revolution maximal 1250W aus der Steckdose ziehen darf und im PC dann 88% davon für die Hardware rauskommen und 12% für das NT draufgehen.
Gut zu wissen das es nicht so ist. :)
Ph0b0ss
2010-04-26, 14:35:12
Mit 1,15V und 900/1800Mhz GPU/Shader wird eine 480er dann wohl ~500W im Furmark ziehen.:freak:
Mayk-Freak
2010-04-26, 14:47:16
Woher hast du das FTW-BIOS? Techpowerup? Das hat ab Werk mehr Spannung, ergo noch mehr Verbrauch?
MfG,
Raff
Hab das Bios aus dem Luxx weiß nicht von welcher Seite das kommt.
Im idle hab ich mit meiner HD5870 165Watt Gesamtsystem Verbrauch und mit meiner MSI GTX480@FTW Bios 182Watt die Gamesettings bei der GTX480 sind 875/1750/2100MHz@1,150Volt der Verbrauch beim Spielen intessiert micht nicht Wirklich weil ich doch zocken will und nicht über den Verbrauch der Karte nachdenken will. 17 Watt mehr im idle wie HD5870 kann ich verschmerzen.
tombman
2010-04-26, 15:00:56
Hab das Bios aus dem Luxx weiß nicht von welcher Seite das kommt.
Im idle hab ich mit meiner HD5870 165Watt Gesamtsystem Verbrauch und mit meiner MSI GTX480@FTW Bios 182Watt die Gamesettings bei der GTX480 sind 875/1750/2100MHz@1,150Volt der Verbrauch beim Spielen intessiert micht nicht Wirklich weil ich doch zocken will und nicht über den Verbrauch der Karte nachdenken will. 17 Watt mehr im idle wie HD5870 kann ich verschmerzen.
Rennt dann der OC-Scanner von EVGA auf deiner Karte- jetzt wo du ein EVGA BIOS hast?
Oder gibts davon eine gecrackte Version für alle GTX4 Karten?
Mayk-Freak
2010-04-26, 15:11:46
Um den OC-Scanner von EVGA zu bekommen braucht man doch die Seriennummer EVGA Karte oder gibt es den OC-Scanner irgendwo zum Download?
tombman
2010-04-26, 15:13:22
Um den OC-Scanner von EVGA zu bekommen braucht man doch die Seriennummer EVGA Karte oder gibt es den OC-Scanner irgendwo zum Download?
Findest per Google- ist im Netz. Könntest du das EVGA Bios uppen?
Brother
2010-04-26, 15:22:10
Findest per Google- ist im Netz. Könntest du das EVGA Bios uppen?
Das gibts bei hardwareluxx im 480er Erfahrungsthread.
Gruß
Brother
skampi
2010-04-26, 15:45:17
Ich meinte ja auch die GTX 480. :) Da ist mir noch kein solcher "Krüppel" bekannt. Sicher, dass da alles mit rechten Dingen zugeht? 0,95V rockstable (was es sein sollte) und 0,925 bereits schnell tot ist ein verdammt kleiner Sicherheitsabstand.
MfG,
Raff
Ja, ist wohl ld. so. Mit Standard Voltage keine Probs bisher, bei 0.025 Volt weniger stürzt sie schon beim ersten Test im 3D Mark Vantage ab. Habe allerdings auch schon Berichte gelesen wo die Karte nicht mal mit der ausgelieferten Spannungs-Einstellung stabil lief. Von daher habe ich sogar noch Glück ;)
Gruß,
Skampi
Mayk-Freak
2010-04-26, 16:00:30
Findest per Google- ist im Netz. Könntest du das EVGA Bios uppen?
Bitteschön
http://www.fileuploadx.de/575357
tombman
2010-04-26, 16:02:22
Bitteschön
http://www.fileuploadx.de/575357
Was hat das für clocks? Womit flasht du sowas und wie?
Thx btw...
Was hat das für clocks? Womit flasht du sowas und wie?
Thx btw...
Die Taktraten stehen doch hier: 752/1.504/1.900 MHz (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7993213&postcount=294)
Zum Flashen: Ab ins DOS, dann nvflash.exe -f (-p 0, 1 oder 2) blubber.rom :D
MfG,
Raff
Mayk-Freak
2010-04-26, 16:11:12
Bootstick oder Diskette ersellen die Datei auf dem Foto draufkopieren und neu Starten und dann den Flashbefehl eingebeben der auch auf dem Foto zu sehen ist.
http://www.abload.de/img/flashmdoc.png (http://www.abload.de/image.php?img=flashmdoc.png)
tombman
2010-04-26, 16:21:23
Im .doc steht was von flashen in Win32? Geht das?
Btw, schon gecheckt ob der EVGA OC-Scanner rennt?
Mayk-Freak
2010-04-26, 16:45:13
Ja der Scanner rennt
http://www.abload.de/thumb/ocscanner20ui.png (http://www.abload.de/image.php?img=ocscanner20ui.png)
tombman
2010-04-26, 16:49:38
Ja der Scanner rennt
http://www.abload.de/thumb/ocscanner20ui.png (http://www.abload.de/image.php?img=ocscanner20ui.png)
:devil:
:up:
LovesuckZ
2010-04-26, 18:02:20
1,15V für 754MHz? Woot...
Wobei GF100 relativ wenig auf höhrere Spannung und Taktung reagiert. Meine 19% übertaktete läuft mit 1,038V statt 1V und genehmigt sich nur ca. 18% mehr Strom gegenüber Default@1V.
hq-hq
2010-04-26, 20:48:51
Der Output ist ja "garantiert" in den Spezifikationen. Die Leistungsaufnahme wird nirgendwo exakt angegeben.
auf meinem 500watt nt stehen bei ac input sagenumwobene maximale 240v und 4 ampere bzw bei 100v 8 ampere :freak:
Mayk-Freak
2010-04-26, 21:39:33
1,15V für 754MHz? Woot...
Wobei GF100 relativ wenig auf höhrere Spannung und Taktung reagiert. Meine 19% übertaktete läuft mit 1,038V statt 1V und genehmigt sich nur ca. 18% mehr Strom gegenüber Default@1V.
Dann läuft deine mit knapp 900/1800/1900MHz mit 1,038Volt da hast ja bestimmt die beste Karte der Welt erwischt die schnellste EVGA mit Wasserkülhler hat für 752/1504/1900 MHz 1,075Volt.
LovesuckZ
2010-04-26, 21:47:31
Dann läuft deine mit knapp 900/1800/1900MHz mit 1,038Volt da hast ja bestimmt die beste Karte der Welt erwischt die schnellste EVGA mit Wasserkülhler hat für 752/1504/1900 MHz 1,075Volt.
Nur 833MHz. :D
Aber 1,075V für 752Mhz sind auch ziemlich schlecht. Scheint wohl, dass EVGA die schlechteren Chips überteuert verkauft.
http://www.abload.de/img/dscf0523vdwt.jpg (http://www.abload.de/image.php?img=dscf0523vdwt.jpg)
http://rwlabs.com/images/articles/enermax/revolution85_1250/revolutiona.jpg
Das Enermax 1250 W scheint einiges auszuhalten :)
Bei 88% Effizienz ist das bereits ÜBER der Spezifikation ;D
Ist einfach ein geiles NT. Habe ich auch im Einsatz.
Bin wirklich erstaunt, was dieses NT bei dir so mitmacht.
Wenigstens brauche ich mir keine Sorgen zu machen, wenn meine 480ger da sind.
gruss
N0Thing
2010-04-27, 00:11:55
Das Enermax 1250 W scheint einiges auszuhalten :)
Bei 88% Effizienz ist das bereits ÜBER der Spezifikation ;D
Die 1250W beziehen sich ja nicht auf die Eingangsleistung. ;)
Aber nichts desto trotz scheint dein NT am absoluten Limit noch immer stabil zu arbeiten. :up:
tombman
2010-04-27, 00:23:48
Die 1250W beziehen sich ja nicht auf die Eingangsleistung. ;)
Na, was glaubst, warum steht der zweite Satz von mir dort? ;) Um genau das zu verdeutlichen.
Aber nichts desto trotz scheint dein NT am absoluten Limit noch immer stabil zu arbeiten. :up:
Das wußte ich vorher schon, siehe Johnny Guru, der f**** alle NTs in einer 50°C Hotbox bei Maximallast und schaut dann noch wie sauber die Spannungen sind :biggrin:
misterh
2010-04-27, 05:38:25
meine läuft mit 1,013v ohne probleme auf 800/1600/2000.
Das "ftw" Bios hat 1050 Volt für 3D, die 1.150 ist doch nur eine Registererweiterung im Bios um der Karte mehr Saft geben zu können.
misterh
2010-04-27, 18:59:48
Unigine
GTX 480 @ 800/1600/2000 @ 1,013v
1920x1200
8xMSAA + 8xSSAA
16xAF
DX11
High
Extreme
Tessellation 1.0
http://img227.imageshack.us/img227/8950/8xssaa10.th.jpg (http://img227.imageshack.us/i/8xssaa10.jpg/)
Tessellation 2.0
http://img689.imageshack.us/img689/6140/8xssaa20.th.jpg (http://img689.imageshack.us/i/8xssaa20.jpg/)
Mayk-Freak
2010-04-27, 19:06:31
Das "ftw" Bios hat 1050 Volt für 3D, die 1.150 ist doch nur eine Registererweiterung im Bios um der Karte mehr Saft geben zu können.
FTW hat 1,075 Volt für 3D.
Mayk-Freak
2010-04-27, 19:14:25
meine läuft mit 1,013v ohne probleme auf 800/1600/2000.
Mußt mal den OC SCanner von EVGA testen mit der Spannung und dem Takt.;)
misterh
2010-04-27, 19:18:42
Mußt mal den OC SCanner von EVGA testen mit der Spannung und dem Takt.;)
meinste? hab 10x Unigine mit SSAA und höchste einstellung ohne probleme gehabt. also wird ja stabil sein.
Mayk-Freak
2010-04-27, 20:44:02
Ja stabil wirds sein aber der OC Scanner findes kleinste Fehler(Artifakte) die du bei Unigine nicht unbedingt siehst aber so wichtig ist das nicht hauptsache deine Karte läuft stabil.
hq-hq
2010-04-27, 20:49:34
ist der oc scanner nicht wie der kombustor von msi ?
der kombustor (wie auch atitool) ist völlig nutzlos, wo der noch einwandfrei rumpelt freezt die karte im unigine
Mayk-Freak
2010-04-27, 21:29:52
Kombustor von msi testet auf Stabilietät und der OC-Scanner testet die Pixel auf Fehler unter OC.
tombman
2010-04-27, 22:21:19
Gibts eigentlich einen Weg den oc scanner zum Laufen zu kriegen, ohne das evga bios zu flashen? Könnte man vom jetzigen Bios nicht nur die ID ändern, sodaß es als EVGA BIOS erkannt wird?
Schlammsau
2010-04-27, 22:30:41
Ist einfach ein geiles NT. Habe ich auch im Einsatz.
Bin wirklich erstaunt, was dieses NT bei dir so mitmacht.
Wenigstens brauche ich mir keine Sorgen zu machen, wenn meine 480ger da sind.
gruss
Das sollte auch das mindeste sein, bei einem NT das im günstigsten Fall für 261€ zu bekommen ist. :freak:
Orbmu2k
2010-04-27, 22:32:30
FTW hat 1,075 Volt für 3D.
Das hängt von der Karte ab. Die default Voltage wird nicht vom BIOS allein bestimmt!
FTW hat 1,075 Volt für 3D.
http://www.abload.de/thumb/unbenanntn5pi.png (http://www.abload.de/image.php?img=unbenanntn5pi.png)
Mayk-Freak
2010-04-27, 23:43:40
@ Orbmu2k
Binn von meiner Karte ausgegangen da steht bei default Voltage 1,075Volt. Von was außer dem Bios wird die default Voltage noch bestimmt?
http://www.abload.de/img/napi3esvf.png (http://www.abload.de/image.php?img=napi3esvf.png)
hanneslan
2010-04-28, 20:39:52
Hallo alle miteinander,
ich hoffe ihr könnt mir bei meinem kleinen Problem helfen.
Folgende Ausgangssituation:
Q9450@ 3,2 Ghz; GTX 480 Standardtaktraten @ 1,012 VCore, Seasonic 600 Watt 85Plus Markennetzteil
Keinerlei Probleme in Heaven, Vantage + Furmark
Gleiches System + GTX 480@ 800/1600/1900 @ 1,025 bzw. 1,050 VCore
Keine Probleme in Heaven (16AF, Extreme Tess., 1680*1050) + Vantage, aber Furmark freezt immer nacht knapp 3 Minuten mit Roten oder Schwarzen Bildschirm.
Wo könnte das Problem liegen? Netzteil zu schwach? Oder der Speicher von 1900?
Könnte mir jemand ein Paar Tipps geben?
Vielen Dank im Voraus.
PS: Bin leider mehr oder weniger nicht so erfahren auf diesem Gebiet und habe Freizeitmäßig wenig Zeit mir den ganzen Thread durchzulesen und hoffe deshalb auf ein Paar Hilfestellungen.
tombman
2010-04-28, 22:39:50
Also, wenn Heaven durchrennt, aber Furmark abstürzt, dann würde ich auf ein Stromproblem tippen. Furmark erzeugt mehr Hitze und braucht um einiges mehr Strom, aber Heaven ist berechnungsmäßiger fordernder. Die Cores sollten bei 1.05vcore deine Taktraten halten, denn das ist so ziemlich der beliebteste overclock- meine rennen auch in dem setting. (800/1600/2000)
Was für ein NT isses genau?
Aber erhöhe einfach NUR mal die vcore, aber ändere nichts an den Taktraten, und laß Furmark nochmal laufen ;)
Don Vito
2010-04-28, 22:50:18
Tombmans werte kann ich bestätigen...
800/1600/2000 bei 1,05 stbale auf 3 Karten mit Furmark und Heaven.
Edgecrusher86
2010-04-29, 06:38:06
Moin,
es scheint so zu sein, dass nach dem Flashen des EVGA BIOS' die Extra VCore je nach vorheriger default VCore um 2 Voltage Level erhöht wird - dass wurde im Luxx so angenommen bzw. schon bestätigt - ein anderer User hatte vorher z.B. 1038 mV und danach 1063mV.
Würde auch erklären, wieso die meisten User nach dem Flashen des EVGA FTW BIOS verschiedene Extra VCores haben.
Ich hab einfach mal das Pic von Mayk-Freak genommen:
http://img687.imageshack.us/img687/6063/89392986.png[/URL]
Btw.: Tombman: Du brauchst umbedingt noch ne 4. Karte (falls du schon ein entstsprechendes Board hast :d - unter OC wird das aber nix mit 1 Revo 1250W. ;)
Im Luxx gibt es einen User mit dem SR-2 und 2 Gulftown Xeons sowie Quad-SLI unter Wasser....leider gibts noch keinen großen User Test.
http://www.hardwareluxx.de/community/14463367-post37.html
mfg
Edge
Edgecrusher86
2010-04-29, 07:00:41
3way SLI sollte aber smoother laufen - wobei, wenn ich die Videos sehe - das sieht auch mit 4 Karten ganz gut aus.
Hier mal ein paar Verbrauchswerte mit einem solchen Setting - aber weniger OC !
Videos sind wohl schon bekannt....macht aber nix. :)
Furmark:
http://www.youtube.com/watch?v=7V13ZGIZgYY
unter Luft knapp über 77dBA maximal. ^^
Heaven 2.0:
http://www.youtube.com/watch?v=vY8uppkjwL0
Stone Giant 1.0:
http://www.youtube.com/watch?v=sM0uRcY6828
Wenn die Karten dann mit WaKü über 900 MHz haben, sollte man mit über 1.7 KW rechnen....mit nem SR-2 kommt man sicher an die 2KW. ^^
nochmal 3-way SLI:
Vantage:
http://www.youtube.com/user/trubritar#p/u/7/RSOJucZwe7I
Heaven 2.0:
http://www.youtube.com/user/trubritar#p/u/8/-GMJkVQiq5c
mfg
Edge
3way SLI sollte aber smoother laufen - wobei, wenn ich die Videos sehe - das sieht auch mit 4 Karten ganz gut aus.
Heaven 2.0:
http://www.youtube.com/watch?v=vY8uppkjwL0
Stone Giant 1.0:
http://www.youtube.com/watch?v=sM0uRcY6828
Bah, das Gestotter beim Heaven 2.0 ist ja übel, das geht mir wirklich auf die Nerven, so was im Game, da könnte man QSLI wirklich vergessen. Das ist noch weit enfernt von smooth. Das TSLI hat zwar auch Stotterer im Video, diese sind jedoch nicht so nervend und auffällig wie bei QSLI.
BTW finde ich 1920x1200 mit QSLI und TSLI doch etwas peinlich, da sollte es schon 2560x1600 sein.
tombman
2010-04-29, 14:16:28
BTW finde ich 1920x1200 mit QSLI und TSLI doch etwas peinlich, da sollte es schon 2560x1600 sein.
Genau, Leistung ist peinlich :ulol:
Btw, schon 3x 480 ist ziemlicher overkill. 4x 480 nur mehr reine Spielerei ;) Und das SR2 mobo ist für gamer auch ziemlich sinnlos, da games nicht mal 4 Cpu-Kerne nutzen, also was sollen dann 8 oder 12?
Hab mir gestern Bioshmock 2 und Asscrack 2 angesehen- sowas von fail. Da langweilt sich sogar EINE GTX480 herum, immer max fps., was aber kein Wunder bei all der low poly/low texture Konsolen-crap-grafik ist :mad:
Edgecrusher86
2010-04-29, 16:12:48
@ tombman: Das mag sein, aber für Bencher (neue WR) ist es ne schöne Sache. ;)
Es gibt aber schon Games, die von mehr als 4 Kernen profitieren - GTA IV samt EfLC z.B. (getestet mit der 480er) - vor allem in Sachen min fps.:
http://www.pcgameshardware.de/aid,744947/GTA-4-Episodes-from-Liberty-City-im-Test-Verbesserte-Engine-plus-Sechskern-CPU-und-Fermi-Benchmarks/Action-Spiel/Test/
...du hast aber schon recht, dass dies bei den meisten Games (noch) nicht der Fall ist; das SR-2 ist auch eher ein Bench-MoBo oder eine Schw...verlängerung.
Als CUDA gestützter "Kleinst-Supercomputer" wär ein SR-2 System auch gut und vor allem "günstig" - was unsereins aber nicht so sehr interessiert, wie Wissenschaftler.
Wobei dann je nach Einsatzgebiet wohl 4 TESLA C2050 oder C2070 besser wären. :)
@ PHuV: Stimmt...ganz so rund läuft es dann doch nicht, hat es mir auch nochmal angeschaut (die MR sieht man nach kurzer Zeit). Nun ja, die MR Thematik sollte mit 3-way SLI schon um einiges besser sein, mit normalem SLI tritt ja meist nichts auf.
Hab mir gestern Bioshmock 2 und Asscrack 2 angesehen- sowas von fail. Da langweilt sich sogar EINE GTX480 herum, immer max fps., was aber kein Wunder bei all der low poly/low texture Konsolen-crap-grafik ist :mad:
Dann muss die Karte halt per Downsampling oder MSAA+TSAA eingebremst werden - bei Bioshock geht ja afaik MSAA mit NV Karten. Leider ist die Glättung der UE3 durch DS nicht so gut wie etwa bei anderen Engines (Cry Engine 2, X-Ray Engine 1.5 , 1.6, BC2 usw.).
Werd das mal später testen - Game (Bio 2) ist bestellt.
mfg
Edge
Genau, Leistung ist peinlich :ulol:
Es geht doch nicht um die Leistung an sich. Bei 2560x1600 ist immerhin fast die doppelte Anzahl von Bildpunkten bearbeiten als mit 1920x1200. Gut, einzig CUDA würde noch ein Argument sein, um 4-way sinnvoll nutzen zu können.
Wirst Du Dir noch eine 4 gönnen?
@ PHuV: Stimmt...ganz so rund läuft es dann doch nicht, hat es mir auch nochmal angeschaut (die MR sieht man nach kurzer Zeit). Nun ja, die MR Thematik sollte mit 3-way SLI schon um einiges besser sein, mit normalem SLI tritt ja meist nichts auf.
Schade, das es nur 3-way und 4-way SLI mit genau diesem Video gibt, und kein 2-way, damit man mal die Unterschiede sehen kann.
Edgecrusher86
2010-04-29, 18:35:56
Ja, ein direktes Vergleichsvideo mit (2 way) SLI wär prima.
Hab da was anderes gefunden:
Hier kann man mal den direkten Unterschied zwischen GTX 480 SLI und Single sehen:
Resi 5- und den Crysis Warhead - Benchmark
http://www.youtube.com/watch?v=ge3AjS_Fux0
Far Cry 2, Street Fighter IV und Dirt 2
http://www.youtube.com/user/SirJamesDDJ#p/u/1/FOHx4s-ymGw
Heaven 1.0 & 2.0 @ SLI - diesmal kein direkter Videovergleich (dafür aber nacheinander -> SLI / Single) aber es sieht auch deutlich besser aus als mit 3 oder 4 Karten
http://www.youtube.com/user/SirJamesDDJ#p/u/3/yxLBPajPQ20
3D Mark Vantage & 06 in SLI:
http://www.youtube.com/user/SirJamesDDJ#p/u/4/-iovyR_POCE
Sieht soweit ganz gut auf SLI aus. ;)
Crysis Benchmark @ SLI:
http://www.youtube.com/watch?v=iGeUMcCTGm8
Aus den Zeilen lese ich heraus, dass selbst tombman kein Quad-SLI fahren möchte - außerdem würde 1 Revo85+ nicht schicken, wenn man noch gut OC fahren möchte. Nun ja, 3 Karten schicken ja eigentlich....;)
Das TSLI hat zwar auch Stotterer im Video, diese sind jedoch nicht so nervend und auffällig wie bei QSLI.
Solange es nicht unter 60 fps bei TSLi abrutscht, ist es erträglich.
Solange es nicht unter 60 fps bei TSLi abrutscht, ist es erträglich.
Schau Dir mal die 4-way und 3-way Videos genau an, der FPS-Zähler ist ständig locker über 60-80 FPS, und trotzdem gibt es diese harten und sehr auffälligen Stotterer, bei TSLI wirken sie nicht so hart und abrupt wie bei QSLI.
Heaven 1.0 & 2.0 @ SLI - diesmal kein direkter Videovergleich, aber es sieht auch deutlich besser aus als mit 3 oder 4 Karten
http://www.youtube.com/user/SirJamesDDJ#p/u/3/yxLBPajPQ20
Das hatte ich auch zuerst gefunden, aber schau Dir mal gerade die ersten Sekunden das Gras an, deutliche Ruckler, wobei jetzt die Frage ist, ob das MR-Ruckler oder die mangelnde FPS sind. Der FPS-Zähler ist leider mit dem Logo überdeckt :freak:
Edgecrusher86
2010-04-29, 19:10:21
Das können die sehr niedrigen fps sein -> haben schon Viele berichtet, dass in den ersten Sekunden die fps in SLI teils mal unter 10 rutschen (siehe EVGA Forum)...nun ja, insgesamt gesehen ist es schon deutlich smoother als 3way oder 4way SLI - siehe auch die Game-Videos. Die Leistung schickt in den meisten Fällen ja auch aus, takten kann man die Karten vor allem unter Wasser ja auch recht ordentlich (900MHz +; so knapp 930MHz war bis jetzt das Höchste unter Wasser, was ich gesehen hab).
tombman
2010-04-29, 19:22:54
4. 480er kommt definitiv nicht- hätte weder Platz noch genug Strom dafür. Und der Leistunsgzuwachs würde sich auch in Grenzen halten...
Nene, 3x 480 ist mein "sweet-spot" :)
Aber daß nicht irgendwann mal ein Gulftown dazukommt, kann ich nicht garantieren :D
ZÜNDELholz
2010-04-29, 19:36:23
SLI ruckelt deutlich bei 45- 50 FPS, was bei ATIs 4800er TripleCrossX nicht der Fall war.
FASTWRITE aktivieren ?? :D :D
BQ=TOP!
corvus
2010-04-29, 19:55:53
Opera und Fermi kann man richtig vergessen muß ich gerade feststellen...der hüpft ja andauernd in den 3D Modus und brauch ewig um da wieder runter zukommen...kommt gut bei 875...
OC_Burner
2010-04-29, 21:30:54
4. 480er kommt definitiv nicht- hätte weder Platz noch genug Strom dafür. Und der Leistunsgzuwachs würde sich auch in Grenzen halten...
Nene, 3x 480 ist mein "sweet-spot" :)
Aber daß nicht irgendwann mal ein Gulftown dazukommt, kann ich nicht garantieren :D
Da schafft wohl nur ein Selbstbaunetzeil Abhilfe
Matrix316
2010-04-29, 21:35:08
Gibt doch Servergehäuse mit zwei Netzteilen. ;) Bräuchte man wahrscheinlich nur noch ein anderes Mainboard.
OC_Burner
2010-04-29, 22:55:42
Benötigt jemand vielleicht doch noch etwas mehr Spannung, als wie EVGA Defaultbios anbietet?;D
http://www.abload.de/img/gtx48031voltagetimming8mug.png
Mayk-Freak
2010-04-29, 23:16:44
Ja ich bitte!
ZÜNDELholz
2010-04-29, 23:19:27
SLI ruckelt deutlich bei 45- 50 FPS, was bei ATIs 4800er TripleCrossX nicht der Fall war.
FASTWRITE aktivieren ?? :D :D
BQ=TOP!
Ati Treiberreste entfernt,Nvidiatreiber nochmal neu aufgesetzt-WOWWWW!
SLI Ruckler in oben genannte FPS-Bereich verschwunden !
SLI,Crysis@DX10, alles very high, 1900x1920 ,mit 4x AA ingame + 4x TSSAA+16AF läuft völlig smooth und Hammer-Grafik! Temps der beiden GPUs knapp 90°C. ZT=24°C.
Lüftergeräusch der beiden Karten gehören einfach dazu, zeugt von unbändiger Kraft :D:D
Don Vito
2010-04-29, 23:23:32
Lüftergeräusch der beiden Karten gehörten einfach dazu, zeugt von unbändiger Kraft :D:D
So sieht es aus:D
QUERSCHLÄGER
2010-04-30, 01:53:36
Lüftergeräusch der beiden Karten gehören einfach dazu, zeugt von unbändiger Kraft :D:D
Bin ich auch der Meinung. Habe derzeit leider noch ne alte 260², sodaß ich mir einen fetten Ventilator neben´s Gehäuse gestellt habe. Quasi ein 480-Emulator. :facepalm:
´s Gehäuse is zu. Nur Emulator. :facepalm:
Blaire
2010-04-30, 02:14:52
Lüftergeräusch der beiden Karten gehören einfach dazu, zeugt von unbändiger Kraft :D:D
Nur selber fliegen ist schöner. ;D
Edgecrusher86
2010-04-30, 06:20:48
Neues von der VCore Front der 480er -> da geht noch was (nun 1.213V maximal statt 1.15V per EVGA SC / FTW BIOS möglich !) - hier aus dem Luxx:
E: Ich sehe gerade, dass der findige OC_Burner auch schon unterwegs war - macht aber nix - den Inspector Screenshot gab es noch nicht. :D
Zitat von OC_Burner
Durch einen kleinen aber feinen Eintrag im Bios per Hex-Editor. 27 Tables scheinen aber definitiv das maximum zu sein.
Dank deiner Hilfe haben WIR es ja nun :)
http://www3.pic-upload.de/thumb/29.04.10/5f58k2pua64g.png (http://www.pic-upload.de/view-5467382/nvidia_20100429_230605.png.html)
---------------------------
NVAPI test
---------------------------
P-state table: flags 00000007h
P-State 0: flags 00000004h
Clock domain 4: flags 00000001h, 1848000KHz
Clock domain 0: flags 00000001h, 700500KHz
Clock domain 7: flags 00000000h, 1401000KHz
Voltage domain 0: flags 00000000h, 987mV
P-State 3: flags 00000001h
Clock domain 4: flags 00000000h, 1848000KHz
Clock domain 0: flags 00000000h, 405000KHz
Clock domain 7: flags 00000000h, 810000KHz
Voltage domain 0: flags 00000000h, 987mV
P-State 8: flags 00000001h
Clock domain 4: flags 00000000h, 135000KHz
Clock domain 0: flags 00000000h, 50500KHz
Clock domain 7: flags 00000000h, 101000KHz
Voltage domain 0: flags 00000000h, 825mV
P-State 12: flags 00000001h
Clock domain 4: flags 00000000h, 135000KHz
Clock domain 0: flags 00000000h, 50500KHz
Clock domain 7: flags 00000000h, 101000KHz
Voltage domain 0: flags 00000000h, 825mV
Voltage table: flags 00000000h
Voltage domain 0: flags 00000000h
Voltage level 0 : 825mv
Voltage level 1 : 838mv
Voltage level 2 : 850mv
Voltage level 3 : 863mv
Voltage level 4 : 875mv
Voltage level 5 : 888mv
Voltage level 6 : 900mv
Voltage level 7 : 913mv
Voltage level 8 : 925mv
Voltage level 9 : 938mv
Voltage level 10 : 950mv
Voltage level 11 : 963mv
Voltage level 12 : 975mv
Voltage level 13 : 988mv
Voltage level 14 : 1000mv
Voltage level 15 : 1013mv
Voltage level 16 : 1025mv
Voltage level 17 : 1038mv
Voltage level 18 : 1050mv
Voltage level 19 : 1063mv
Voltage level 20 : 1075mv
Voltage level 21 : 1088mv
Voltage level 22 : 1100mv
Voltage level 23 : 1113mv
Voltage level 24 : 1125mv
Voltage level 25 : 1138mv
Voltage level 26 : 1150mv
Voltage level 27 : 1163mv
Voltage level 28 : 1175mv
Voltage level 29 : 1188mv
Voltage level 30 : 1200mv
Voltage level 31 : 1213mv
---------------------------
OK
---------------------------
:-D
Musst die Quote etwas zusammenschustern...hier der Direktlink:
http://www.hardwareluxx.de/community/14488848-post355.html
DOWNLOAD des Extrem-OC-BIOS (GTX 480) auf FTW Basis (THX @ Orbmu2k_ für das Reinstellen im Luxx); P.S. : WaKü wird dringlichst empfohlen, wenn man alles in Sachen Extra-VCore auffahren will ^^:
http://ul.to/0iiz5o
Weiterer Hinweis - durch Aufspielen des "EVGA" BIOS sollte die Extra-VCore um genau 2 Voltage Level angehoben sein - also etwa statt vorher mit default BIOS 1.038V nun 1.063V.
DOWNLOAD des Extrem-OC-BIOS (GTX 470) (THX @ Orbmu2k_ für das Reinstellen im Luxx); P.S. : WaKü wird dringlichst empfohlen, wenn man alles in Sachen Extra-VCore auffahren will ^^:
http://ul.to/hwcqyv
mfg
Edge
Gouvernator
2010-04-30, 09:03:52
Neues von der VCore Front der 480er -> da geht noch was (nun 1.213V maximal statt 1.15V per EVGA SC / FTW BIOS möglich !) - hier aus dem Luxx:
E: Ich sehe gerade, dass der findige OC_Burner auch schon unterwegs war - macht aber nix - den Inspector Screenshot gab es noch nicht. :D
Musst die Quote etwas zusammenschustern...hier der Direktlink:
http://www.hardwareluxx.de/community/14488848-post355.html
DOWNLOAD des Extrem-OC-BIOS (GTX 480) auf FTW Basis (THX @ Orbmu2k_ für das Reinstellen im Luxx); P.S. : WaKü wird dringlichst empfohlen, wenn man alles in Sachen Extra-VCore auffahren will ^^:
http://ul.to/0iiz5o
Weiterer Hinweis - durch Aufspielen des "EVGA" BIOS sollte die Extra-VCore um genau 2 Voltage Level angehoben sein - also etwa statt vorher mit default BIOS 1.038V nun 1.063V.
DOWNLOAD des Extrem-OC-BIOS (GTX 470) (THX @ Orbmu2k_ für das Reinstellen im Luxx); P.S. : WaKü wird dringlichst empfohlen, wenn man alles in Sachen Extra-VCore auffahren will ^^:
http://ul.to/hwcqyv
mfg
Edge
Nicht schlecht! Meine GTX480 geht bei 1.200V bis 890Mhz.
Edgecrusher86
2010-04-30, 10:02:22
@ Wasser nehm ich mal an? Mit etwas niedrigerem GDDR-Takt kommste bestimmt über die 900MHz, dafür braucht es idR so um die 1.10V - 1.12V.
Mann, mann...die GF100 entwickeln sich so langsam zu echten Monsterkarten (zumindest, wenn man den Verbrauch ignoriert ^^) - mit max. OC unter Wasser kann eine 5870 2GB @ max. OC sicher kaum mithalten. ;)
Gouvernator
2010-04-30, 12:01:36
@ Wasser nehm ich mal an? Mit etwas niedrigerem GDDR-Takt kommste bestimmt über die 900MHz, dafür braucht es idR so um die 1.10V - 1.12V.
Mann, mann...die GF100 entwickeln sich so langsam zu echten Monsterkarten (zumindest, wenn man den Verbrauch ignoriert ^^) - mit max. OC unter Wasser kann eine 5870 2GB @ max. OC sicher kaum mithalten. ;)
Nein GDDR Takt spielt für micht keine Rolle 900 Mhz und Ram Takt@dafault gab es einen Freeze. Ich muss doch alle 1.213V für 890Mhz geben weil irgendwann gab es doch ein Rückfall. Triple Radi und Kreislauf nur für GPU, max. Temp bei Last Metro2033 67°C :freak:
Edgecrusher86
2010-04-30, 12:04:46
Ach so, hast nur 924 MHz GDDR (also default), die meisten haben dann oft über 1000 MHz und wundern sich, wieso es nicht mehr höher geht in Sachen Core/Shader. ;)
Gut, mit Triple Radi und 1.213V sind die 67°C unter Metro @ DX11 wohl noch ok . :)
E: Mit weniger VCore läuft es nicht? So 1.10V+ sollte ja theoretisch ausreichen für 890 MHz.
Nicht schlecht! Meine GTX480 geht bei 1.200V bis 890Mhz.
... und zieht dann (vermutlich, aber realistisch) 600 Watt im Furmark. :ulol: Wie könnt ihr euch das mit Luftkühlung antun? Da stößt sicher schon die eine oder andere Wasserkühlung an ihre Grenzen. X-D
MfG,
Raff
Edgecrusher86
2010-04-30, 12:09:20
Nein...600W haste mit Shaminos Mod @ 1.5V und 1165 MHz Core - mit 1.213V bleibt man sicher unter 500W GPU only, sagen wir mal 450W oder so. :D
Würd sowas aber auch nur mit ner (anständigen) WaKü fahren. ;)
Gouvernator
2010-04-30, 12:13:36
... und zieht dann (vermutlich, aber realistisch) 600 Watt im Furmark. :ulol: Wie könnt ihr euch das mit Luftkühlung antun? Da stößt sicher schon die eine oder andere Wasserkühlung an ihre Grenzen. X-D
MfG,
Raff
Wie gesagt mit einer CPU im Kreislauf würde das bestimmt nicht gehen! Und mit einem Single Radi auch nicht. Aber es ist noch Lüft nach oben das Wasser kocht noch nicht. ;D
corvus
2010-04-30, 12:17:03
kommt auch immer auf die GPU an, meine schafft die 900 mit 1.1>+i7 und komplettes Mobo (DFI digi SPAWA)im Kreislauf, Wasser ~30 Grad (Mora + triple :D)
Nein...600W haste mit Shaminos Mod @ 1.5V und 1165 MHz Core - mit 1.213V bleibt man sicher unter 500W GPU only, sagen wir mal 450W oder so. :D
Würd sowas aber auch nur mit ner (anständigen) WaKü fahren. ;)
Hast Recht, ich hatte falsche Furmark-Werte bei 1,125 Volt in Erinnerung – nämlich 473 anstelle von 373 Watt (Standardtakt). X-D Nochmal 0,1 Volt plus höherer Takt resultieren wohl in mindestens 450 Watt. Der Lüfter läuft gewiss die ganze Zeit bei 100 Prozent.
kommt auch immer auf die GPU an, meine schafft die 900 mit 1.1>+i7 und komplettes Mobo (DFI digi SPAWA)im Kreislauf, Wasser ~30 Grad (Mora + triple :D)
Nur 30 Grad Celsius bei der GPU? Da ist's klar, dass die gut übertaktbar ist. Niedrige Temps fördern eben die Stabilität. :)
MfG,
Raff
Edgecrusher86
2010-04-30, 12:35:38
Klar, natürlich ist es von Karte zu Karte unterschiedlich...die eine braucht mehr, die andere weniger VCore.
Ich erinnere hier mal beispielsweise an die PoV von scully1234 im Luxx -> 1.05V @ Luft (100%) -> 880 MHz; da geht was. ;)
@ Raff: Ja, das kommt wohl hin. :)
E: Ich bin auch mal gespannt, was mit dem OC-Mod-BIOS mit der 470er geht in Sachen max. VCore - einen Tester gab es ja leider noch nicht.
mfg
Edge
kommt auch immer auf die GPU an, meine schafft die 900 mit 1.1>+i7 und komplettes Mobo (DFI digi SPAWA)im Kreislauf, Wasser ~30 Grad (Mora + triple :D)
Jo. Mir sind auch einige gute GTX-480-Karten bekannt, die mit Standardspannung und voll aufgeblasener Luftkühlung 825/1.650 MHz schaffen. Scheiße laut ist aber scheiße laut. ;)
MfG,
Raff
corvus
2010-04-30, 12:54:39
30 Grad Wassertemp..jetzt noch....im Sommer......da hatt mir schon die 295er einen Strich durch die Rechnung gemacht....dann muß der 2. Kreislauf wieder ran..
Laut...nö... ein leises säuseln des 40cm Lüfters (8.5v) auf dem Mora :D
corvus
2010-04-30, 13:03:38
Klar, natürlich ist es von Karte zu Karte unterschiedlich...die eine braucht mehr, die andere weniger VCore.
Ich erinnere hier mal beispielsweise an die PoV von scully1234 im Luxx -> 1.05V @ Luft (100%) -> 880 MHz; da geht was. ;)
@ Raff: Ja, das kommt wohl hin. :)
E: Ich bin auch mal gespannt, was mit dem OC-Mod-BIOS mit der 470er geht in Sachen max. VCore - einen Tester gab es ja leider noch nicht.
mfg
Edge
naja Biose in den Raum schmeißen ist auch leichter...als sich seine Karte zerflashen... :D
Es wird langsam mal Zeit das man die SPAWA Temps auslesen kann...frag mich eh woran das habert.....Everest mit seinen 3.5 Volt.......hält da noch die Spitze :D
Edgecrusher86
2010-04-30, 13:14:45
Da ist schon was dran, aber wie heißt es so schön: No Risk, no fun ! Wenn es mit dem Flashen klappt, was ja schon bei
Einigen der Fall war (480er BIOS), sollt man aber nicht gleich volle Lotto geben - vor allem, wenn man nur die Referenzkühlung hat. :D
Es gibt ja schon eine neuere Build für die 0.4.2er GPU-Z - allerdings werden bei der 480er dort nur die 2D Werte (SpaWa Temps) angezeigt (so um die 27°C @ Referenzkühlung @ auto afaik) und nicht unter Last.
Download Test Build GPU-Z 0.4.2:
http://forums.techpowerup.com/showthread.php?t=120661
mfg
Edge
hq-hq
2010-05-01, 20:56:27
mmmrgh... hab gerade ein neues NT bestellt seasonic S12D 750watt...
mein altes amacrox frei erde 500watt ist zu schwach, dachte mir erst mein gott scheiss auf
vantage... aber auch in metro hat der pc grad neu gestartet. zieht normal nur so 310watt
bis 380watt das netzteil... aber scheinbar gibts peaks die es nicht mag.
so ein schass... jetzt mussi derweil runtertakten/gpu spannung auf 0,950v ...
seasonic S12D 750watt, der Schrott hat die DFI SPAWA genau 3 Tage überlebt....
hq-hq
2010-05-01, 21:31:03
ich hab leider keinen anderen hersteller gefunden der 5 jahre garantie gibt.
das Xigmatek NRP-PC702 700W oder ein Cougar CM 700W wären die alternativen gewesen.
der overload test beim seasonic gefällt aber http://www.hardwaresecrets.com/article/800/8
und auf kabelmanagement verzichte ich gern.
ZÜNDELholz
2010-05-01, 21:39:48
ich hab leider keinen anderen hersteller gefunden der 5 jahre garantie gibt.
ab 850W:
http://www.pcgameshardware.de/aid,702300/Enermax-erhoeht-die-Herstellergarantie-der-Revolution-85-Netzteile-auf-fuenf-Jahre/Netzteil/News/
Mein Enermax Revolution 950W wird im GTX 480er-SLIBetrieb +übertakteter CPU Corei7 unter Last (z.B. Unigine2.0@ExtremeTessellation) noch nicht mal handwarm.
Gut, ich muss zugeben, dass ich bezüglich Festplatten, nur SSDs verbaut habe, die nicht soviel Leistung ziehen, wie herkömmliche HDDs.
hq-hq
2010-05-01, 21:55:25
naa, enermax mag der primus sein aber die verlangen einfach zuviel. ausserdem is mir schonmal ein enermax kaputt gegangen ^^
mir gefällt das seasonic, so schlicht
und bevor ich mir ein enermax kaufe hol ich mir lieber ein dickes xfx netzteil...http://geizhals.at/deutschland/a435173.html
ZÜNDELholz
2010-05-01, 22:04:38
naa, enermax mag der primus sein aber die verlangen einfach zuviel. ausserdem is mir schonmal ein enermax kaputt gegangen ^^
[/url]
Also gehst Du davon aus, dass das seasonic oder das XFX-Teil nicht kaputt gehen :rolleyes:
Weswegen legst Du dann Wert auf 5jahre Garantie :confused:
ich hab leider keinen anderen hersteller gefunden der 5 jahre garantie gibt.
hq-hq
2010-05-01, 22:24:28
naja, das xfx basiert auf dem seasonic m12d bzw s12d
die laange garantie lässt mich glauben das es länger hält. ich hab schon powermaxx, coba und tronje netzteile platzen sehen (nagut war nur beim powermaxx dabei), ich glaube ein fermi lässts da krachen darum möglichst hochwertig.
(- aso ja enermax is eigentlich schon wieder zu teuer findest nicht, 850watt brauchts net, zumindest net für >200 euro... aber fair das es 5 jahre gibt.)
(- ahm, grad gesehen das xfx 5 jahre garantie auf das black edition 750&850watt nt gibt wenn man sich innerhalb von 30tagen ab kauf registriert... mmmh hat ausserdem nur eine 12v schiene ^^, das wär eher was für dich gewesen, nicht das deine 30amps für jede 12v schiene wenig wären...)
Edgecrusher86
2010-05-02, 10:07:25
Hier ein neues PoV GTX 480 Extrem-OC-BIOS (70.00.21.00.02 statt wie bisher 70.00.1A.00.02)
- auch von Ormu2k_ in Sachen Extra VCores modifiziert. Damit soll das OC etwas besser gehen als mit dem auf der letzten Seite:
http://ul.to/srmftn
mfg
Edge
Megamember
2010-05-02, 13:24:22
HAt schonmal jemand die 470 ohne Plastikabdeckung plus 120er Lüfter untendrunter betrieben? Könnte mir vorstellen das die Kühlung dadurch besser ist. Der eigene Lüfter ist dann zwar nichtmehr so effizient aber mit dem 120er dürfte er ordentlich was wegkühlen.
Johnny Rico
2010-05-02, 14:32:48
Das ist genau mein Plan wenn ich eine 4XX "günstig" bekomme. Plastikdeckel ab und 2 120er draufgeschnallt. Sollte unhörbar sein. Einen extra Kühlkörper kann man sich ja sparen und der Passive ist auch schon mit dabei.
Bei der 470 mach ich mir da keine Sorgen, da sind die Rippen offen.
http://www.abload.de/img/gtx470-11f0xk.jpg
Bei der 480 muss ich erst noch ein paar Bilder finden. Der Kühlkörper sieht für Luft von oben nicht so zugänglich aus...eher wie eine geschlossene Platte. (Bild von Wizz)
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/images/cooler4.jpg
Megamember
2010-05-02, 14:37:33
OOOh, vergesst das mit der fehlenden Abdeckung schnell wieder. Ich habs eben ausprobiert und die Temps gingen ruckzuck über 90 Grad.
Der 120er lag direkt untendrunter auf der Soundkarte, bringt aber nicht viel.
Johnny Rico
2010-05-02, 14:43:30
:-[
Der muss schon direkt aufliegen, passiv mit leichtem Lufthauch bringt nix.
Wieviel upm lässt Du draufblasen?
Megamember
2010-05-02, 14:44:51
Bei der 480 muss ich erst noch ein paar Bilder finden. Der Kühlkörper sieht für Luft von oben nicht so zugänglich aus...eher wie eine geschlossene Platte. (Bild von Wizz)
]
Bei der 480er muss man nix abschrauben, die kann man einfach von unten anblasen.
:-[
Der muss schon direkt aufliegen, passiv mit leichtem Lufthauch bringt nix.
Wieviel upm lässt Du draufblasen?
1360U/min. Der Luftstrom wird offensichtlich erst durch die Abdeckung mit schön viel Druck durch die Lamellen geblasen.
Der Luftstrom wird offensichtlich erst durch die Abdeckung mit schön viel Druck durch die Lamellen geblasen.
Ist ja logisch, Strömung geht den Weg des geringsten Widerstands. Ist die Abdeckung ab, macht se sich gleich nach oben ab, statt sich durch die engen Kanäle zu pressen. :D
Megamember
2010-05-02, 14:57:29
Also ABdeckung erst ab Kühleranfang absägen :D
WLP kann man bei offener Abdeckung übrigens auch gleich wechseln, geht ruckzuck und ne gute MArken-WLP ist sicher besser als das komische Knetgummi-Zeug was Nvidia da üppig draufgepappt hat.
kruemelmonster
2010-05-02, 15:36:01
Also ABdeckung erst ab Kühleranfang absägen :D
Pics plz! :freak:
WLP kann man bei offener Abdeckung übrigens auch gleich wechseln, geht ruckzuck und ne gute MArken-WLP ist sicher besser als das komische Knetgummi-Zeug was Nvidia da üppig draufgepappt hat.
Hast du die WLPaste schon gewechselt und wenn ja ein paar Vergleichswerte parat?
Bei den G80 und GT200 Karten hab ich mich ja wegen den RAM-WLPads immer ein wenig geziert den Kühler abzunehmen, die Kühlplatte des GF100 macht es da wesentlich unkomplizierter.
Johnny Rico
2010-05-02, 15:43:49
@mega
Ich bin davon ausgegangen, dass wir den alten Lüfter gar nicht in das 120er custom design einbeziehen. Ggf, sogar abklemmen oder abmontieren(wenn möglich).
Was ich nicht verstehe ist, dass 1-2 120er direkt auf den Kühler bei 1300upm nichts bringen. So krass kann doch der Sog/Druck des kleinen Quirls gar nicht sein oO.
Am besten wir vergessen das wieder und stellen den PC zur Frau in die Küche.
http://www.legitreviews.com/images/reviews/1264/egg_start.jpg
Megamember
2010-05-02, 15:57:56
Also im Moment sind dei Temps mit neuer Paste sogar einen Tick schlechter, aber die Arctic Silver brauch ja immer 1-2 Tage um fest zu werden und ihre volle Wirkung zu erziehlen.
Also im Moment sind dei Temps mit neuer Paste sogar einen Tick schlechter, aber die Arctic Silver brauch ja immer 1-2 Tage um fest zu werden und ihre volle Wirkung zu erziehlen.
Kommt auch drauf an, wie dick du sie aufgetragen hast. Dicker ist besser, um Ungleichmäßigkeiten beim Heatspreader und der Kühlerunterseite auszugleichen. Standardmäßig ist ja der dicke "Knetgummi" drauf, der locker paar Millimeter Luftspalte ausgleicht.
Megamember
2010-05-02, 16:39:44
Ich hab hier auch noch graue Scythe High Thermal Compound WLP die bei meinem MUgen 2 dabei war. Ist die vielleicht sogar besser?
Ich hab hier auch noch graue Scythe High Thermal Compound WLP die bei meinem MUgen 2 dabei war. Ist die vielleicht sogar besser?
Am besten erst mal den Kühler abschrauben und gucken, ob der Abdruck des Heatspreaders auf der Unterseite gleichmäßig ist. Wenn er ungleichmäßig ist, dann ist dickere Wärmeleitpaste besser als dünne. Oder mehr dünne Wärmeleitpaste auftragen.
OC_Burner
2010-05-02, 18:22:46
Wenn man unbedingt die Paste wechseln will sollte man wohl eher zu dick als zu dünn auftragen. Habe vorhin bei einer GTX480 die Paste gewechselt und gebracht hat es überhaupt nicht, ausser verschwendete Zeit. Die Temps und die Lüftergeschwindigkeit sind gleich geblieben. Die Kühlerunterseite ist aber auch nicht die beste, die Fläche weist mehr Profil als als ein abgefahrener Reifen auf.;D
LovesuckZ
2010-05-02, 18:28:18
Draufblasend auf den Kühler bringt auch nur was, wenn die hinzugefügte Luft auch wieder schnell abgeführt werden kann. Eher sollte man den Lüfter saugend an die Seitenwand montieren und vorne für Frischluft sorgen. Das bringt wesentlich mehr.
naja, das xfx basiert auf dem seasonic m12d bzw s12d
die laange garantie lässt mich glauben das es länger hält. ich hab schon powermaxx, coba und tronje netzteile platzen sehen (nagut war nur beim powermaxx dabei), ich glaube ein fermi lässts da krachen darum möglichst hochwertig.
(- aso ja enermax is eigentlich schon wieder zu teuer findest nicht, 850watt brauchts net, zumindest net für >200 euro... aber fair das es 5 jahre gibt.)
(- ahm, grad gesehen das xfx 5 jahre garantie auf das black edition 750&850watt nt gibt wenn man sich innerhalb von 30tagen ab kauf registriert... mmmh hat ausserdem nur eine 12v schiene ^^, das wär eher was für dich gewesen, nicht das deine 30amps für jede 12v schiene wenig wären...)
Hier Top NT. 7 Jahre Garantie und super Preis :)
http://geizhals.at/deutschland/a429172.html
hq-hq
2010-05-03, 12:43:15
@ gast
ai, das hättest du gestern oder vorgestern schreiben müssen, das hätt ich gern genommen.
http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story3&reid=153
naja nicht so dramatisch, das seasonic ist schon unterwegs und hat nur 110 gekostet (ohne versand)
aber das sind schon genau die richtigen teile für eine thermi
Metalmaniac
2010-05-10, 19:59:07
Habe mir heute die GTX470 von Point of view gegönnt als Update meiner HD4870 von Ati. Allerdings dachte ich, daß gerade die kleine Fermi nicht ganz so heiß würde. Aber die ist bei mir (eigentlich einigermaßen gut belüftetes Gehäuse mit 5 80er Gehäuselüftern) schon im Leerlauf bei ~75-80°C. Bei einem Test von 2 min. mit dem MSI Afterburner Monitor geht das Ganze bereits hoch auf max. 93°C. Ist das nicht alles ein bißchen viel? Bin mir durchaus bewußt, daß die Fermis heiß werden, aber so viel mehr als meine liebgewordene ATI hätte ich dann doch nicht gedacht.
Megamember
2010-05-10, 20:07:09
75-80 im Leerlauf???? Eigendlich sollte die da um die 50 Grad haben.
93 beim Afterburner sind normal.
hq-hq
2010-05-10, 20:16:21
hehe, ja leider ist die gtx470 so klein geworden, mir wäre der kühler von der gtx480 viel lieber.
93°C ist normal und höher geht sie (bei mir) nicht. allerdings hab ich die lüftersteuerung geändert
so dass sie auch bei starkem oc unter 90°C bleibt. das wird dann etwas laut da der lüffi >70%
bläst.
93°C ist nicht so wenig, aber ich denk mir immer das z.b. bei der 5850/5870 zwar die temps
geringer sind, aber dafür ist die gpu spannung um mehr als 0,1v höher als bei der gtx470 (und sind ja ebenfalls in 40nm).
und soweit ich weiss ist materialmigration im grunde abhängig von temperatur, spannung und im geringen auch von der taktrate.
ganz banal und pauschal sag ich einfach mal die halten lang und nicht geringer als cypress ;)
hast du zwei monitore angeschlossen ? glaube habe gelesen das ein neues bios für die graka den verbrauch etwas senkt (wenn man 2 monis angeschlossen hat)
---
tatsächlich, ich hab meinen beamer am zweiten ausgang angeschlossen und jetzt taktet sich die graka nimmer ganz runter,
bleibt bei 405 / 810 / 1675 mhz stehen gpu spannung geht auch nicht runter ^^
hab noch das alte 70.00.1A.00.03 Bios druff, damit ist der dual monitor betrieb in "idle" ziemlich warm...
-> die graka taktet sich sogar in 3d games von selbst runter wenn die gpu auslastung gering ist, das is ja mal was ganz was neues
screenshot (http://freenet-homepage.de/hauptquartier/taktung.jpg)
Lotzi
2010-05-11, 15:23:37
ist es normal das ich im geräte manager von win7 4x den eintrag nvidia high definition audio treiber bei einer gtx 480 stehen habe?
nVIDIA
2010-05-11, 17:19:12
Ich habe eine Frage bezüglich der Leistungsaufnahme im 2D Betrieb (3D ist mir Wurscht).
Stimmt es das der Ram der Stromfresser auf der Karte ist? Ich habe vor ein paar Tagen in einem anderen Forum gesehen das generell das absenken der GPU Taktfrequenz gerade mal 10 watt nur ausmacht. Dort hatte jemand ein Strommessgerät und hat die gesamte Leistungsaufnahme von seinem Computer gemessen. Beim absenken vom Ram der GTX 480 hat er aber dann schon 40 -50 watt weniger Gesamtverbrauch im 2D Betrieb gehabt. Könnte das jemand bestätigen?
Ich möchte mir auch eine GTX 480 kaufen, allerdings sollte wenigstens im Windows Betrieb der Verbrauch noch im Rahmen liegen.
Metalmaniac
2010-05-11, 17:43:04
...tatsächlich, ich hab meinen beamer am zweiten ausgang angeschlossen und jetzt taktet sich die graka nimmer ganz runter,
bleibt bei 405 / 810 / 1675 mhz stehen gpu spannung geht auch nicht runter ^^
hab noch das alte 70.00.1A.00.03 Bios druff, damit ist der dual monitor betrieb in "idle" ziemlich warm...
Das ist ja mal was saublödes. Habe meinen TV mit dranhängen. Und daran liegt wohl auch meine hohe Idle-Temp. Habe in einem anderen Forum diesbezüglich diese Aussage gefunden (Sorry, falls dies in diesem Thread auch schonmal Thema war, hatte keine Lust, mir jetzt alle Seiten durchzulesen):
# Taktraten Idle (1 Monitor) Chip/Shader/Speicher = 50/101/67,5 MHz
# Taktraten Idle (2 Monitore) Chip/Shader/Speicher = 405/810/837 MHz
Hoffentlich wird daran nochmal was geändert durch ein anderes BIOS o.ä.. Oder ich mache es wie bei meiner ATI vorher und lasse dies alles durch selbsterstellte Profile mittels RivaTuner erledigen. Hat da einer diesbezüglich schon Erfahrungen mit dieser Karte gemacht! Würde der Stromsparmodus der Karte mit dem des RivaTuner kollidieren?
Edit: Das Fettgeschriebene stimmt übrigens tatsächlich. habe gerade per GPU-Z die Werte ausgelesen. Und sobald ich den HDMI-Stecker zum TV abziehe, gehen alle Taktraten aber auch die Temps runter. Toll, echt... :(
hq-hq
2010-05-11, 18:26:45
ist es normal das ich im geräte manager von win7 4x den eintrag nvidia high definition audio treiber bei einer gtx 480 stehen habe?
jupp, hat 7.1 Digital Surround Sound
@nvidia da die taktraten wohl schon extrem niedrig sind, insofern im idle die taktraten voll abgesenkt sind, hilft nur noch gpu spannung reduzieren falls du noch mehr sparen möchtest - aber 40-50watt weitere einsparung ist unmöglich weil die gtx480 nur knapp 50watt in idle verbrennt. (mit einem moni, mit zwei wärens ca 110 watt dann könnte man auf alle fälle 50watt einsparen liesse sich der takt und die spannung nur gänzlich absenken)
soweit ich mich noch erinnern kann ist der speichertakt im 2d betrieb beim 2moni-modus höher weil ähm... weil... ein ominöses bildschirmflackern unterdrückt werden soll wegen der ähm vermutlich steigenden latenz ... ähm bla... genau ! alles klar ?
also gewaltsam per tool absenken sag ich da. irgendwo stand auch noch was bzgl modifiziertes bios....
- eine seite die die leistungsaufnahmen ermittelt hat (2d/2d_multi/3d/furzmark) : http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php
----
im zuge des multimonitor-betriebs ist bei mir in windoof gerade die tastenkombination windooftaste+p aufgeschlagen, wie praktisch
LovesuckZ
2010-05-11, 18:46:22
Das ist ja mal was saublödes. Habe meinen TV mit dranhängen. Und daran liegt wohl auch meine hohe Idle-Temp. Habe in einem anderen Forum diesbezüglich diese Aussage gefunden (Sorry, falls dies in diesem Thread auch schonmal Thema war, hatte keine Lust, mir jetzt alle Seiten durchzulesen):
# Taktraten Idle (1 Monitor) Chip/Shader/Speicher = 50/101/67,5 MHz
# Taktraten Idle (2 Monitore) Chip/Shader/Speicher = 405/810/837 MHz
Hoffentlich wird daran nochmal was geändert durch ein anderes BIOS o.ä.. Oder ich mache es wie bei meiner ATI vorher und lasse dies alles durch selbsterstellte Profile mittels RivaTuner erledigen. Hat da einer diesbezüglich schon Erfahrungen mit dieser Karte gemacht! Würde der Stromsparmodus der Karte mit dem des RivaTuner kollidieren?
Edit: Das Fettgeschriebene stimmt übrigens tatsächlich. habe gerade per GPU-Z die Werte ausgelesen. Und sobald ich den HDMI-Stecker zum TV abziehe, gehen alle Taktraten aber auch die Temps runter. Toll, echt... :(
Das ist aber normal.
Gegen den Stromverbrauch hilft die Absenkung der Spannung durch Afterburner. Die läuft nämlich im 3D Modus beim MM-Betrieb und kann somit direkt beeinflusst werden.
OC_Burner
2010-05-11, 21:26:40
Ich habe eine Frage bezüglich der Leistungsaufnahme im 2D Betrieb (3D ist mir Wurscht).
Stimmt es das der Ram der Stromfresser auf der Karte ist? Ich habe vor ein paar Tagen in einem anderen Forum gesehen das generell das absenken der GPU Taktfrequenz gerade mal 10 watt nur ausmacht. Dort hatte jemand ein Strommessgerät und hat die gesamte Leistungsaufnahme von seinem Computer gemessen. Beim absenken vom Ram der GTX 480 hat er aber dann schon 40 -50 watt weniger Gesamtverbrauch im 2D Betrieb gehabt. Könnte das jemand bestätigen?
Ich möchte mir auch eine GTX 480 kaufen, allerdings sollte wenigstens im Windows Betrieb der Verbrauch noch im Rahmen liegen.
Ich denke du meinst diesen Beitrag? klick (http://www.hardwareluxx.de/community/14503498-post75.html)
Windowsidle Stromverbrauch vom Rechner + unterschiedliche GTX480 Taktraten
Defaulttaktraten/Spannung
(701MHz Clock, 1402MHz Shader, 1848MHz Memory) = 280W
nur gesenkte Speichertaktrate
(701MHz Clock, 1402MHz Shader, 135MHz Memory) = 221W 59W weniger...
zusätzlich gesenkte GPU-Taktrate
(50MHz Clock, 101MHz Shader, 135MHz Memory) = 211W gerade mal 11W weniger, durch Senkung der GPU
und schließlich die Senkung der Spannung von 1.038V auf 0.962V
(50MHz Clock, 101MHz Shader, 135MHz Memory) = 200W ebenfalls nur 11W weniger
jetzt mit 0.825V, statt 0.962V
(50MHz Clock, 101MHz Shader, 135MHz Memory) = 189W und was für ein Zufall, wieder nur 11W weniger
Defaulttaktraten wie Vergleich 1, aber statt Defaultspannung liegt nur 0.962V an
(701MHz Clock, 1402MHz Shader, 1848MHz Memory) = 265W Senkung der Spannung allein bringt nur 15W
Sind nur ein paar Beispiele was bei der Karte am meisten Verbraucht (IDLE)
Beispiel Nr.4 hat die Karte werkseitig bei einem abgeschlossenen Monitor. Damit verbraucht die GTX480 nur etwas mehr Watt wie eine GTX280 (ca. 5-10W Unterschied bei mir). Und da eine 8800GTX 20-30W mehr zieht wie eine GTX280, sollte dein Rechner mit einer GTX480 sogar etwas weniger verbrauchen (nicht aber bei zwei angeschlossenene Monitoren).
Weiß jemand wofür der weisse Anschluss Unterhalb der Stromanschlüsse ist? Könnte das ein SPDIF-Connector zur verlustfreien Durchschleifung eines Audiosignals sein? (wie bei der GTX280). Bei der kaufbaren GTX480 Variante ist dieser nicht mehr angelötet, könnte aber vielleicht noch funktionieren.
http://www.abload.de/thumb/480pcb1big211tgtc.png (http://www.abload.de/image.php?img=480pcb1big211tgtc.png) http://www.abload.de/thumb/nvidiagtx480-wakueumbakg1x.jpg (http://www.abload.de/image.php?img=nvidiagtx480-wakueumbakg1x.jpg)
Edgecrusher86
2010-05-11, 21:34:16
Afterburner 1.6.0 X Beta 6 (X = Extreme) erschienen (max. 1.5V VCore sowie ~ 1400 MHz Core (!) möglich - was man aber auch selbst mit starker WaKü vermeiden sollte ^^):
http://uploaded.to/file/cosnpo
mfg
Edge
nVIDIA
2010-05-11, 22:11:03
Genau dieser Beitrag war das. Danke für die Infos.
Bei mir würde die Karte nur an einem Monitor angeschlossen werden.
Ich habe eine Frage bezüglich der Leistungsaufnahme im 2D Betrieb (3D ist mir Wurscht).
Stimmt es das der Ram der Stromfresser auf der Karte ist? Ich habe vor ein paar Tagen in einem anderen Forum gesehen das generell das absenken der GPU Taktfrequenz gerade mal 10 watt nur ausmacht. Dort hatte jemand ein Strommessgerät und hat die gesamte Leistungsaufnahme von seinem Computer gemessen. Beim absenken vom Ram der GTX 480 hat er aber dann schon 40 -50 watt weniger Gesamtverbrauch im 2D Betrieb gehabt. Könnte das jemand bestätigen?
Ich möchte mir auch eine GTX 480 kaufen, allerdings sollte wenigstens im Windows Betrieb der Verbrauch noch im Rahmen liegen.Das ist ja mal was saublödes. Habe meinen TV mit dranhängen. Und daran liegt wohl auch meine hohe Idle-Temp. Habe in einem anderen Forum diesbezüglich diese Aussage gefunden (Sorry, falls dies in diesem Thread auch schonmal Thema war, hatte keine Lust, mir jetzt alle Seiten durchzulesen):
# Taktraten Idle (1 Monitor) Chip/Shader/Speicher = 50/101/67,5 MHz
# Taktraten Idle (2 Monitore) Chip/Shader/Speicher = 405/810/837 MHz
Hoffentlich wird daran nochmal was geändert durch ein anderes BIOS o.ä.. Oder ich mache es wie bei meiner ATI vorher und lasse dies alles durch selbsterstellte Profile mittels RivaTuner erledigen. Hat da einer diesbezüglich schon Erfahrungen mit dieser Karte gemacht! Würde der Stromsparmodus der Karte mit dem des RivaTuner kollidieren?
Edit: Das Fettgeschriebene stimmt übrigens tatsächlich. habe gerade per GPU-Z die Werte ausgelesen. Und sobald ich den HDMI-Stecker zum TV abziehe, gehen alle Taktraten aber auch die Temps runter. Toll, echt... :(
Hier verweise ich immer gerne auf HT4U, welche es gottlob zum "Standard" erhoben haben, den Stromverbrauch im MM-Betrieb und auch im beschleunigten Video-Betrieb mit zu messen... sehr, sehr lobenswert, da dies eine der großen Schwachstellen moderner Grafikkarten darstellt.
Hier mal ein aktueller Test in einem große Vergleich (eiegntlich zu einer HD5770)
http://ht4u.net/reviews/2010/powercolor_pcs_plus_plus_hd_5770_test/index13.php
GTX470
- Idle (SigleMon) = 31W
- Idle (DualMon) = 86W (oder +177%, bzw. knapp das Dreifache!
- Idle (BlueRay) = 90W (oder +190%!)
GTX480
- Idle (SigleMon) = 49W
- Idle (DualMon) = 113W (oder +131%, bzw. knapp das 2,5fache!
- Idle (BlueRay) = 113W (oder ebenfalls +131%!)
HD 5870
- Idle (SigleMon) = 21W
- Idle (DualMon) = 52W (auch +148%, absolut aber deutlich weniger!
- Idle (BlueRay) = 44W (immer noch +110%!)
DAS ist für mich schlicht ein KO-Kriterium - 60W Mehrverbrauch für "Nichts" sind inakzeptabel!
Zumal man dies seit GT200 nicht auf die Reihe bekommt und dies auch sicher NICHT durch ein "Bios-Update" behoben wird...
... selbst die gut 20W Mehrverbrauch meiner aktuellen GTX260² tun mir schon "weh".
Dass jetzt aber maßgeblich der VRAM dafür verantwortlich sein soll, ist mir neu.
Augenscheinlich machen hier die AMD-Produkte allerdings eine deutlich bessere Figur, auch wenn die prozentuale "Zulage" ähnlich erscheint.
Fakt ist allerdings, dass sich eine 5870 selbst unter "ungünstigen" Idle-Bedingungen deutlich an den "Idealbedingungen" der Fermis orientiert...
Razor
TheBrother
2010-05-12, 09:46:04
DAS ist für mich schlicht ein KO-Kriterium - 60W Mehrverbrauch für "Nichts" sind inakzeptabel!
Zumal man dies seit GT200 nicht auf die Reihe bekommt und dies auch sicher NICHT durch ein "Bios-Update" behoben wird...
... selbst die gut 20W Mehrverbrauch meiner aktuellen GTX260² tun mir schon "weh".
[... heule heule...]
Ich hab mir schon in den guten alten GTX 280 ne 2te Graka für den 2ten Monitor geholt. Macht einfach viel mehr Sinn und spart ne Menge Strom.
Ich warte nicht 2 Jahre ob vielleicht auf gut Glück irgendwann mal was gefixt wird.
Zur 480 GTX:
Dank der neuen Beta vom MSI Afterburner sind auch ohne BiosUpdate höhere Spannungen möglich.
bin gerade bei 875/1750/2200@1,14V
mit 25% OC gibts auch fast 25% mehr Leistung :biggrin: :biggrin: :biggrin:
Gruß
Brother
OC_Burner
2010-05-12, 10:06:57
Dass jetzt aber maßgeblich der VRAM dafür verantwortlich sein soll, ist mir neu.
Anscheinend ja. Habe mir schon ein Bios für die GTX480 geschrieben in dem die Karte auch bei Dualmonitorbetrieb heruntertaktet. Das Flackern das auftritt sobald die Speichertaktfrequenz geändert wird, kann sehr nervend sein und ist wohl auch der Grund das sich Nvidia weigert an der Geschichte etwas zu ändern.
TheBrother
2010-05-12, 11:35:14
Ach noch was zur Videobeschleunigung:
Ich bin schon seit Jahren der Meinung das GPU-Beschleunigung für Video im HighEnd Bereich sinnlos ist. die CPU macht das mittlerweile mit deutlich weniger Stromverbrauch als die GPU.
Low-End und Midrange macht's sinn. aber sobald die Graka in einen anderen P-State wechselt kann mans vergessen. Mal sehen wie das mit der 2D-Beschleunigung von Firefox und co aussieht.
Gruß
Brother
Iruwen
2010-05-12, 11:43:24
http://www.hartware.de/news_49087.html
"Hintergrund für die Zusammenarbeit sind die Bemühungen von Apple, den Stromverbrauch der Macs zu reduzieren. Daher werden auch nicht alle Videos über die GPU dekodiert. Bei HD-Inhalten ist die Grafikkarte sparsamer, bei SD-Inhalten die CPU."
TheBrother
2010-05-12, 12:48:07
Nvidia GeForce 9400M, GeForce 320M und GeForce GT 330M. Weiterhin wird die GPU nur bei der Dekodierung von HD-Inhalten genutzt.
Genau was ich gesagt habe: Low-End oder Midrange.
Hat Apple überhaupt High-End? ;D
Iruwen
2010-05-12, 13:23:05
Sollte auch kein Gegenargument sein :)
BlackBirdSR
2010-05-12, 13:37:48
Ich habe eine Frage bezüglich der Leistungsaufnahme im 2D Betrieb (3D ist mir Wurscht).
Stimmt es das der Ram der Stromfresser auf der Karte ist? Ich habe vor ein paar Tagen in einem anderen Forum gesehen das generell das absenken der GPU Taktfrequenz gerade mal 10 watt nur ausmacht. Dort hatte jemand ein Strommessgerät und hat die gesamte Leistungsaufnahme von seinem Computer gemessen. Beim absenken vom Ram der GTX 480 hat er aber dann schon 40 -50 watt weniger Gesamtverbrauch im 2D Betrieb gehabt. Könnte das jemand bestätigen?
Es gilt immer:
Die thermische Verlustleistung wird durch statische (quasi immer vorhandene) und dynamische (während aktiver Zeit) Leckströme stark beeinflusst.
Diese Leckströme gibt es auch unter Idle (statisch + was nvidia dynamisch nicht abschalten kann). Diese Leckströme sind durch den Takt der GPU kaum abzusenken, sondern fast nur durch die Spannung. Daher bringt das Absenken des GPU-Takts oft so wenig.
Anscheinend kann Nvidia im Mehrmonitorbetrieb bestimmte Teile des Chips nicht vom Netz nehmen, weswegen der Verbrauch dann so extrem ansteigt. ATI geht es ähnlich, aber da sind es eben weniger Transistoren bei weitaus weniger Takt...
Megamember
2010-05-12, 14:47:29
Weiss jemand wie ich den onscreen display vom MSI Afterburner zum laufen kriege? Ich hätte gerne meine GPU-Temp beim spielen links oben angezeigt.
Wenn ich es unter settings aktiviere krieg ich zwar das Menü im Tray aber keine Anzeige auf dem Monitor.
corvus
2010-05-12, 16:49:55
Anscheinend ja. Habe mir schon ein Bios für die GTX480 geschrieben in dem die Karte auch bei Dualmonitorbetrieb heruntertaktet. Das Flackern das auftritt sobald die Speichertaktfrequenz geändert wird, kann sehr nervend sein und ist wohl auch der Grund das sich Nvidia weigert an der Geschichte etwas zu ändern.
Ist oder war bei ATI auch nicht anders, bis irgendeiner ein anderes Bios brachte.
hq-hq
2010-05-12, 21:29:55
Weiss jemand wie ich den onscreen display vom MSI Afterburner zum laufen kriege? Ich hätte gerne meine GPU-Temp beim spielen links oben angezeigt.
Wenn ich es unter settings aktiviere krieg ich zwar das Menü im Tray aber keine Anzeige auf dem Monitor.
habs grad mal ausprobiert und aktiviert, das symbol im tray ist da, hab draufgeklickt und das menü geht auf.
tja hab nichtmal was umgestellt und die gpu temp erscheint oben links - in den games
is bei dir da unter general properties "show on-screen display" auf on im "rivatuner statistics server technology" ?
Megamember
2010-05-13, 00:21:21
In Crysis und Just Cause 2 nicht. In Battlefield BC2 wars da, komisch.
LovesuckZ
2010-05-13, 00:27:40
Eventuell den neusten Rivatuner Server verwenden. Ich habe in Just Cause 2 damit die Anzeige.
Blaire
2010-05-13, 00:33:59
EVGA Precision Tool 1.93 funktioniert auch super
Metalmaniac
2010-05-13, 00:35:49
Gehe ich recht in der Annahme, daß der MSI Afterburner bisher nur mit der GTX 480 funzt? Denn bei meiner GTX 470 wird weder der Coretakt noch vor allem die Spannung angezeigt, sodaß ich beides auch nicht verändern kann.
Johnny Rico
2010-05-13, 02:22:39
hast du die spannungsanzeige angeschalten? 1 einziges mal in die optionen geschaut?
shader : 2 = core
ich würde lieber den inspector nehmen, wenn du occen/doccen willst
Metalmaniac
2010-05-13, 11:09:28
hast du die spannungsanzeige angeschalten? 1 einziges mal in die optionen geschaut?
shader : 2 = core
ich würde lieber den inspector nehmen, wenn du occen/doccen willst
Hast recht, wie dumm von mir. Manchmal ist mir meine Ungeduld bei sowas im Weg.:redface: Ich teste einfach das Prog und muß sehen, daß etwas nicht funktioniert. Das man diese Funktion erst anschalten muß, ok, ist auf eine Art irgendwie verständlich, andererseits, da man dann trotzdem damit rumspielen kann ohne viel Aufwand nutzt diese "Schutzvorrichtung" dann eigentlich auch nicht so viel.
Edit: Bietet der Inspector auch die Möglichkeit der Kontrolle? Finde es nämlich äußerst praktisch, daß ich alle gewünschten Werte im LCD-Display meines G15 Keyboards zu sehen bekomme, was bei allen Tools, welche auf dem RivaTuner basieren, der Fall ist.
Edgecrusher86
2010-05-14, 00:08:36
Dedicated to tombman ;) :
GTX 480 SLI / 3 way-SLI / 4-way SLI Review @ englisch "übersetzt":
http://www.abload.de/img/platform1w1vl.jpghttp://www.abload.de/img/testsyse1y2.png
Google Nachricht (http://translate.google.de/translate?hl=de&sl=ro&tl=en&u=http%3A%2F%2Flab501.ro%2Fplaci-video%2Fnvidia-gtx480-performanta-in-configuratii-multi-card)
Das ist doch mal ne Marke - selbst mit 4xAA noch "flüssig" spielbar (zumindest von der Anzahl der fps -> wenn einen MR nicht stören und man z.B. nur benchen will) ! :eek:
http://www.abload.de/img/warhead74ve.png
Metro 2033 @ DX11:
http://www.abload.de/img/metroa30i.png
Vantage mit "etwas GPU" OC:
3DMark Vantage – P46134 | 4815 MHz |1.6 vCore / 1.42 VTT / 1.70 vDDR / 102 PCI-E / -38 oC | 4 x GTX 480 @ 800/1000MHz
http://www.abload.de/thumb/46kq2ky.jpg (http://www.abload.de/image.php?img=46kq2ky.jpg)
Ohne PhysX !
46875 GPU ! ;)
mfg
Edge
LovesuckZ
2010-05-14, 00:41:25
2xGTX480 mit 0,938V sollten ähnlich viel verbrauchen wie meine GTX mit 863MHz@1,1V. Hier erreiche ich beim Spielen ca. 480 Watt. Mit 0,938V sind es ca. 350 Watt. Wären dann wohl 550 Watt gegen 480Watt bei ca. 51% Mehrleistung und leiserer Umgebung...
=Floi=
2010-05-14, 04:54:28
was ist denn das für eine logik? wenn ich 2 GTX 480 hätte, dann würden beide auch auf "863@1,1 volt" laufen...
corvus
2010-05-14, 08:00:35
gar keine :-)
bei mir würden beide mit 900/ 1.1Volt laufen :-), wenn man das Glück hat das beide gleich gut gehen....
Mit 0.938 wirds nicht lustig in 3D.....
OC_Burner
2010-05-14, 08:43:19
Erhlich gesagt würde ich mich kaum trauen die Spannung auf Dauer bei 1.1V und mehr zu lassen wenn die Karte eh schon 300W zieht und damit an den PCIe-Specs. kratzt.
Wenn der Rechner noch kalt ist und die GTX480 Karte mit Standardtaktraten läuft beträgt der
Unterschied zwischen normalen 1.038V und auf erhöhten 1.213V ganze 120W in FurMark.
Wenn der Rechner warm ist und zusätzlich die Taktraten leicht auf
839MHzGPU/1678MHzShader/2062MHzMemory erhöht wurden dann sind
es mit den selben Spannungen wie oben ganze 160W mehr.
Bei 1.100V sind es mit den gleichen OC-Taktraten im Vergleich zu standardmäßigen 1.038V "nur" 50W mehr.
Sprich zwischen Default und max. OC sind es ganze 200W an Unterschied.
GTX480 (Wakü) und nur FurMark (Rechner warm gelaufen):
_50MHzGPU/_100MHzShader/_135MHzMemory @0.825V = 235W (2D)
550MHzGPU/1099MHzShader/1411MHzMemory @0.825V = 355W
700MHzGPU/1401MHzShader/1848MHzMemory @0.963V = 440W
700MHzGPU/1401MHzShader/1848MHzMemory @1.038V = 480W (default 3D)
810MHzGPU/1620MHzShader/1960MHzMemory @1.038V = 515W
839MHzGPU/1678MHzShader/2062MHzMemory @1.038V = 525W
839MHzGPU/1678MHzShader/2062MHzMemory @1.100V = 575W
839MHzGPU/1678MHzShader/2062MHzMemory @1.213V = 680W
tombman
2010-05-14, 09:15:49
Dedicated to tombman ;) :
GTX 480 SLI / 3 way-SLI / 4-way SLI Review @ englisch "übersetzt":
http://www.abload.de/img/platform1w1vl.jpghttp://www.abload.de/img/testsyse1y2.png
Google Nachricht (http://translate.google.de/translate?hl=de&sl=ro&tl=en&u=http%3A%2F%2Flab501.ro%2Fplaci-video%2Fnvidia-gtx480-performanta-in-configuratii-multi-card)
Das ist doch mal ne Marke - selbst mit 4xAA noch "flüssig" spielbar (zumindest von der Anzahl der fps -> wenn einen MR nicht stören und man z.B. nur benchen will) ! :eek:
http://www.abload.de/img/warhead74ve.png
Metro 2033 @ DX11:
http://www.abload.de/img/metroa30i.png
Vantage mit "etwas GPU" OC:
3DMark Vantage – P46134 | 4815 MHz |1.6 vCore / 1.42 VTT / 1.70 vDDR / 102 PCI-E / -38 oC | 4 x GTX 480 @ 800/1000MHz
http://www.abload.de/thumb/46kq2ky.jpg (http://www.abload.de/image.php?img=46kq2ky.jpg)
Ohne PhysX !
46875 GPU ! ;)
mfg
Edge
Ich kann alles mit 3x GTX480 flüssig spielen, und die vierte Karte bringt kaum noch zusätzlichen speed- außerdem würde das dann wohl mein NT sprengen und noch 'ne Menge anderer Probleme wie extremen Platzmangel und Verzicht auf Auzentech-Sound (niemals, da viel zu geil!) bedeuten. Für 99% aller games reicht sogar EINE GTX480 (Konsolenports ftw :rolleyes:) :ulol:
4x GTX480 schaut geil aus, aber in der Praxis IMO einfach "zu doof". 4X GTX4xx wäre für mich dann vielleicht eher wieder mit 2 Doppelkarten interessant, dann aber bitte mit 4x 512sp Gpus :)
corvus
2010-05-14, 09:45:06
Erhlich gesagt würde ich mich kaum trauen die Spannung auf Dauer bei 1.1V und mehr zu lassen wenn die Karte eh schon 300W zieht und damit an den PCIe-Specs. kratzt.
Wenn der Rechner noch kalt ist und die GTX480 Karte mit Standardtaktraten läuft beträgt der
Unterschied zwischen normalen 1.038V und auf erhöhten 1.213V ganze 120W in FurMark.
Wenn der Rechner warm ist und zusätzlich die Taktraten leicht auf
839MHzGPU/1678MHzShader/2062MHzMemory erhöht wurden dann sind
es mit den selben Spannungen wie oben ganze 160W mehr.
Bei 1.100V sind es mit den gleichen OC-Taktraten im Vergleich zu standardmäßigen 1.038V "nur" 50W mehr.
Sprich zwischen Default und max. OC sind es ganze 200W an Unterschied.
GTX480 (Wakü) und nur FurMark (Rechner warm gelaufen):
_50MHzGPU/_100MHzShader/_135MHzMemory @0.825V = 235W (2D)
550MHzGPU/1099MHzShader/1411MHzMemory @0.825V = 355W
700MHzGPU/1401MHzShader/1848MHzMemory @0.963V = 440W
700MHzGPU/1401MHzShader/1848MHzMemory @1.038V = 480W (default 3D)
810MHzGPU/1620MHzShader/1960MHzMemory @1.038V = 515W
839MHzGPU/1678MHzShader/2062MHzMemory @1.038V = 525W
839MHzGPU/1678MHzShader/2062MHzMemory @1.100V = 575W
839MHzGPU/1678MHzShader/2062MHzMemory @1.213V = 680W
der Unterschied ist schon heftig, auch was OC betrifft..
hier gehen 875 mit 1.050 locker (standard bei meiner Karte 1.025)durch, bei 900 gehts nur mit 1.1...
Edgecrusher86
2010-05-14, 16:24:52
Ich kann alles mit 3x GTX480 flüssig spielen, und die vierte Karte bringt kaum noch zusätzlichen speed- außerdem würde das dann wohl mein NT sprengen und noch 'ne Menge anderer Probleme wie extremen Platzmangel und Verzicht auf Auzentech-Sound (niemals, da viel zu geil!) bedeuten. Für 99% aller games reicht sogar EINE GTX480 (Konsolenports ftw :rolleyes:) :ulol:
4x GTX480 schaut geil aus, aber in der Praxis IMO einfach "zu doof". 4X GTX4xx wäre für mich dann vielleicht eher wieder mit 2 Doppelkarten interessant, dann aber bitte mit 4x 512sp Gpus :)
Das stimmt wohl -> 4 x 512 SP wär schöner, dann bitte auch gleich mit je 3GB VRAM für Downsampling + MSAA und so :biggrin: - mit WaKü wären 2 Dual-GPU Karten aus Platzgründen auch besser -
sagen wir mit je 4 x 8 Pin pro Dual-GPU-Karte - für dickes OC Potenzial. :freak:
Jedenfalls gehen die Karten mit einem Gulftown @ OC schon bombig - selbst die vierte Karte skaliert noch ein wenig - wenn auch weniger als von SLI auf 3-way SLI. :)
Nee - auf jeden Fall sollte auch das Spielgefühl mit 3 GPUs nochmal besser als mit vieren sein - das ist dann eher was zum Benchen.
MR haste auch keine mit deinem 3-way SLI in Games ?
E: Nun ja, angeblich soll ja in Q3 oder so Revision B1 kommen -> inkl. 512 SP und 725 MHz. Die TDP dürfte bei 295W liegen.
mfg
Edge
Gouvernator
2010-05-14, 17:47:39
Was wird wohl meine GTX mit 1,175V@890Mhz verbrauchen...? Testweise eingestellte 1,30V resultierten Rechner aus bei Just Cause Titelbild. Und Enermax 750W ist ja gar nicht so schwach...
Metalmaniac
2010-05-15, 07:56:31
So, habe meine GTX 470 jetzt mal mit Hilfe eines Mods vom Forumdeluxx mit einem von ihm erstellten Custom BIOS versehen mit von mir als stabil herausgestellten Werten. Als da wären unter voller 3D-Last lediglich 0,875V VCore (default 0,95V) mit einer gleichzeitig moderaten Übertaktung auf 650Mhz (default bekanntlich 607Mhz). Diese Werte haben sich mittels GPU-Tool und dem MSI Kombustor als tatsächlich stabil herausgestellt. Letzteres Prog hatte sogar bei 0,85V keine Fehler angezeigt, das GPU-Tool leider aber schon. Da der nette Mod mir auch die VCore im Idle-Modus niedriger ins BIOS geschrieben hat (statt 0,875 nun den min. einzustellenden Wert von 0,825V), ist die Karte jetzt deutlich kühler, im Idle ca. 7°C, unter Volllast allerdings nur 2-3°, dafür muß der Lüfter nicht mehr so lautstark rotieren um letztgenannte Werte zu erreichen! Jetzt bin ich langsam zufrieden mit dieser Karte als Upgrade zu meiner vorherigen HD4870 von ATI.:smile:
boxleitnerb
2010-05-15, 08:45:07
Probier mal Crysis oder Heaven, das wird erst zeigen, ob deine Spannungswerte genug sind.
Edgecrusher86
2010-05-15, 14:32:40
Wenn das in den Games nicht stabil laufen sollte, könnte der nette Mod das Custom-BIOS auch nochmal bearbeiten. ;)
Aber an für sich sollte es stabil laufen, wenn GPUTool keine Artefakte angezeigt hat. :)
mfg
Andi
Metalmaniac
2010-05-15, 15:30:46
Wenn das in den Games nicht stabil laufen sollte, könnte der nette Mod das Custom-BIOS auch nochmal bearbeiten. ;)
Aber an für sich sollte es stabil laufen, wenn GPUTool keine Artefakte angezeigt hat. :)
mfg
Andi
Ach, Du bist hier auch zugange, hatte ich gar nicht so in Erinnerung.:wink:
Metalmaniac
2010-05-15, 15:32:59
Probier mal Crysis oder Heaven, das wird erst zeigen, ob deine Spannungswerte genug sind.
Wenn Du den Unigine Heaven Benchmark meinst, ja der läuft vorzüglich und brachte nach der leichten Takterhöhung ein sogar noch überpropotional besseres Ergebnis als wie vorher.
Byteschlumpf
2010-05-15, 18:42:01
Was meint ihr, würde es genügen, die GTX470 mit einem 120er Lüfter, der auf deren Kühlkörper befestigt ist, zu betreiben anstelle des lauten Standard-Nervtöters?
Megamember
2010-05-15, 19:16:29
Was meint ihr, würde es genügen, die GTX470 mit einem 120er Lüfter, der auf deren Kühlkörper befestigt ist, zu betreiben anstelle des lauten Standard-Nervtöters?
Nein das klappt absolut nicht, hab ich schon getestet.
Iruwen
2010-05-15, 23:26:53
Wird wohl nicht klappen weil der Druck zwischen den Lamellen ohne Abdeckung nicht hoch genug ist.
Timolol
2010-05-15, 23:51:06
Die lamellen sind so angeordnet das sie längs durchströmt werden mit großem Luftdurchfluss. Ein draufblasender Lüfter durchströmt nur nen Teil der Kühlrippen. Auserdem ist das dann kein wirklich schöner Luftfluss mehr. Ohne es getestet zu haben würd ich davon stark abraten.
Lawmachine79
2010-05-16, 00:50:31
Für 99% aller games reicht sogar EINE GTX480
LoL, Tombman ist ein Casualgamer.
tombman
2010-05-16, 07:17:22
LoL, Tombman ist ein Casualgamer.
Zähl mal die games auf, wo eine 480er bei max. settings keine 30fps mehr schafft :ugly:
Konsolenports ftw :ugly:
Die nächste HE-Generation können die doch gar nimmer rechtfertigen...
Mr. Lolman
2010-05-16, 08:06:13
Zähl mal die games auf, wo eine 480er bei max. settings keine 30fps mehr schafft :ugly:
Konsolenports ftw :ugly:
Die nächste HE-Generation können die doch gar nimmer rechtfertigen...
avg schon, aber die min fps sind tw. deutlich drunter - und zwar wären Just Cause 2 (Max Details, in der Wiese raumlaufend), Arma2, Crysis, Crysis Warhead, Metro (4xAA) Stalker Call of Pripyat (mit Ingame AAA) und zB GTA4 ENB-Series. ;) Alles mit 8xQ/16xAF in 1920x1200
Aber du hast recht, fürn Normalfall reichts. -> gilt auch für HD5870.
so ist das und wenn man davon ausgeht das 90% in max 1600 zockt....
hallo ,
ich bin von einer GTX295 auf eine GTX480 umgestiegen und habe da ein kleines Problem :
wenn ich den Monitor ( Dell 30 Zoll) erst einschalte nachdem Windows (Win7 64 bit) gestratet ist , bekomme ich kein Bild . Es wird am Monitor nur angezeigt das er im Stromsparmodus ist. Das System ist ein Corei7 auf einem X58 Board . Hatte das Problem mit der GTX295 nicht und habe sonst keine änderungen vorgenommen. Vielleicht hat ja jemand einen Tip für mich !
sorry vergessen :
Monitor per DVI an der Karte angeschlossen ! Das aus und einschalten des Monitors ändert auch nichts , muss das system neu booten !
Blaire
2010-05-17, 23:10:24
http://www.abload.de/img/warhead74ve.png
Da sieht man mal wieder, wie grausam Crossfire skaliert...erstaunlich das sie das nach über 7 Monaten immer noch nicht behoben haben.
Letzte Woche hatte ich wegen meines anstehenden Kurzurlaubes im Schwarzwald - Biken vom Feinsten - recht wenig Zeit, mich mit den neuen Grakas zu befassen. Gestern hab ich mich dann mal drangesetzt. Meine 470er haben noch kein Spiel gesehen und eine davon scheint schon kaputt zu sein. Hatte schon zweimal beim Starten des Rechners total verpixeltes Bild und zwischendrin auch schon unerklärliche Abstürze. Ich könnt grad kotzen! :mad:
Popeljoe
2010-05-18, 12:56:43
Wenn es dich tröstet: diese Probleme hat nicht nur NVidia. Anscheinend rotzen die Hersteller die Highend Karten teilweise ohne Endkontrolle raus, Hauptsache die Verkaufszahlen stimmen...
hallo ,
ich bin von einer GTX295 auf eine GTX480 umgestiegen und habe da ein kleines Problem :
wenn ich den Monitor ( Dell 30 Zoll) erst einschalte nachdem Windows (Win7 64 bit) gestratet ist , bekomme ich kein Bild . Es wird am Monitor nur angezeigt das er im Stromsparmodus ist. Das System ist ein Corei7 auf einem X58 Board . Hatte das Problem mit der GTX295 nicht und habe sonst keine änderungen vorgenommen. Vielleicht hat ja jemand einen Tip für mich !
Hatte ich auch schon mit meiner 280 GTX. Ich habe leider keine Ahnung wie ich es dann wieder zum Laufen gebraccht habe. Probier mal einen Treiberupdate oder Neuinstallation.
Gruss
Wenn es dich tröstet: diese Probleme hat nicht nur NVidia. Anscheinend rotzen die Hersteller die Highend Karten teilweise ohne Endkontrolle raus, Hauptsache die Verkaufszahlen stimmen...
Muss nicht nur an der Endkontrolle liegen, es kann auch schon an den Kontrollen der Einzelbauteile liegen. Da wird gerade in der Krise schon mal viele Augen zugedrückt, um nicht zuviele Beanstandungen zu haben und dann im schlimmsten Fall die Fertigung wegen fehlender Bauteile zum Erliegen kommt. Ist in der Autoindustrie auch häufig der Fall. Da wird dann auch eigentliche Ausschussware in die Autos verbaut. Ob das irgendwelche Probleme später beim Kunden macht oder diese entdeckt, ist ja nicht immer gesagt. Man muss da einfach als Hersteller in harten Zeiten pokern. Und auf die Endkontrolle von Grafikkarten würde ich in heutigen Zeiten auch niicht viel geben, und den China-Sklaven, äh ich meine, den Angestellten, ist es nicht zu verdenken, wenn sie auch Exemplare durchwinken, die zicken machen.
Zatoichi
2010-05-18, 13:21:21
Letzte Woche hatte ich wegen meines anstehenden Kurzurlaubes im Schwarzwald - Biken vom Feinsten - recht wenig Zeit, mich mit den neuen Grakas zu befassen. Gestern hab ich mich dann mal drangesetzt. Meine 470er haben noch kein Spiel gesehen und eine davon scheint schon kaputt zu sein. Hatte schon zweimal beim Starten des Rechners total verpixeltes Bild und zwischendrin auch schon unerklärliche Abstürze. Ich könnt grad kotzen! :mad:
Bei mir wars die Zotac welche als Karte 2 eingebaut war, nach 3 Tagen war sie hin, inklusive Rauchzeichen aus dem ersten 6er Anschluß. Hab Schwein gehabt, das ich das so fix mitbekommen habe und nichts anderes mit ins Nirvana gegangen ist. Hab aber fix Ersatz bekommen und ich denke das es bei der aktuellen Gen auf beiden Seiten Probleme gibt. Hatte auch das "Glück" einer defekten 5870er. Die Karten sind halt alle mit der heißen Nadel gestrickt.
Mich würd's net jucken, wenn die Karte total funktionsunfähig wäre. Dann ginge die zurück und ich bekäme anstandslos Ersatz. Wenn die aber geprüft wird und alles geht zufällig, krieg ich das Teil genauso kaputt wieder zurück und hab außerdem auch noch die VK am Bein.
In meinem Fall funktioniert der Rechner ja meistens und eben nur manchmal halt nicht. Erst muss ich jetzt aber mal rausfinden, welche der beiden Karten überhaupt zickt.
Hab ich das, dann werde ich die Karte solo mal ordentlich stressen - 8h Furmark oder so. :udevil:
/edit
Hab grad die Karten noch mal gezogen und neu gesteckt, nachdem beim Windowsstart wieder diese Artefacts erschienen. Jetzt gayt's. Hat wohl eine der Karten "schepp" gesessen.
:sneak:
Masterp
2010-05-18, 21:49:04
Wenn Du die Artefakte auch unter Furmark im Stresstest bekommst, ist die Karte definitiv im Eimer.
hq-hq
2010-05-18, 21:49:36
Muss nicht nur an der Endkontrolle liegen, es kann auch schon an den Kontrollen der Einzelbauteile liegen. Da wird gerade in der Krise schon mal viele Augen zugedrückt, um nicht zuviele Beanstandungen zu haben und dann im schlimmsten Fall die Fertigung wegen fehlender Bauteile zum Erliegen kommt. Ist in der Autoindustrie auch häufig der Fall. Da wird dann auch eigentliche Ausschussware in die Autos verbaut. Ob das irgendwelche Probleme später beim Kunden macht oder diese entdeckt, ist ja nicht immer gesagt. Man muss da einfach als Hersteller in harten Zeiten pokern. Und auf die Endkontrolle von Grafikkarten würde ich in heutigen Zeiten auch niicht viel geben, und den China-Sklaven, äh ich meine, den Angestellten, ist es nicht zu verdenken, wenn sie auch Exemplare durchwinken, die zicken machen.
nein ist es absolut nicht:freak:
-> schau dir z.b. mal toyota an was die jetzt für ärger bei den amis haben. grafikkarten und steuergeräte fürs auto sind nicht zu vergleichen
glaub mir die ausfallrate im automotive bereich sollte am besten gegen null gehen und liegt günstigerweise unter 20ppm ^^
keine ahnung wieviele tausend ausfälle es dagegen bei grakas sind ^^
noch ein gutes beispiel, an meiner graka wurde eine lötstelle offenbar mit der hand nachgelötet! schön das die visuelle prüfung funktioniert hat! unvorstellbar das an deinem airbag steuergerät jemand mit der hand nachgelötet hat hihi
dargo
2010-05-18, 22:57:16
Mal eine Frage an die Besitzer der GTX470 - ist im Lieferumfang ein entsprechender Adapter für den HDMI-Anschluss vorhanden? Ich meine HDMI auf HDMI-Mini.
LovesuckZ
2010-05-18, 23:01:39
Nö, nicht überall. Bei meiner Point of View GTX480 war keiner dabei. Also vorher erkundigen.
Es war ein DVI -> HDMI Adapter dabei.
dargo
2010-05-18, 23:09:34
Es war ein DVI -> HDMI Adapter dabei.
Ah, ok. Das reicht mir ja auch denn ein HDMI-Kabel muss eh angeschafft werden. Danke für die Info. :)
Sven77
2010-05-19, 08:42:25
Beim meiner PoV 470 war ein MiniHDMI -> HDMI Adapter drin, dafür kein DIV -> HDMI.. :ugly:
tombman
2010-05-19, 08:45:30
Beim meiner PoV 470 war ein MiniHDMI -> HDMI Adapter drin, dafür kein DIV -> HDMI.. :ugly:
Same here, bei Zotac 480.
Aber ist eh besser, denn Mini-HDMi ist seltener/teurer.
dargo
2010-05-19, 09:37:52
Beim meiner PoV 470 war ein MiniHDMI -> HDMI Adapter drin, dafür kein DIV -> HDMI.. :ugly:
Soll mir auch recht sein. :D
DevilX
2010-05-20, 08:17:08
Ich hab mir jetzt auch die 480er zugelegt, mann wird die laut unter Vollast.
Hat jemand nen Tipp welchen Wasserkühler ich nehmen sollte?
Mayk-Freak
2010-05-20, 11:31:14
Der hier ist gut hab ihn selber und 15% Rabat gibt es auch noch.
http://www.a-c-shop.de/Aquacomputer-aquagraFX-fuer-GTX-480-GF100-G1-4
dargo
2010-05-20, 23:15:30
So... meine GTX470 (POV) ist heute angekommen. Konnte sie jetzt erst einbauen. Kurzer Test mit NfS-Shift - 1680x1050 4xMSAA/16xAF @max. Details 110-160fps aus der freien Kameraperspektive bzw. 100-125fps aus dem Cockpit. :freak: Genug Dampf hat sie ja. :tongue:
Zur Verpackung muss ich aber was loswerden. So ein spärliche Verpackung habe ich ja noch nie bei "High-End" gesehen - Karte, Handbuch, CD, DVI/VGA-Adapter... das wars. :| Außerdem war die Karte zwar in einer Antistatikfolie verpackt allerdings hatte sie keine Halterung in der Verpackung. Sie konnte schön hin und her tanzen. Dass hierbei keine Bauteile kaputt gegangen sind wundert mich sogar. Die kleine Ecke am Slotblech war allerdings schon verbogen. Ist aber kein Thema, mit dem Finger lässt sich das wieder problemlos zurechtbiegen.
Was ich allerdings etwas komisch finde, mir kommt das so vor als ob ich einen Rückläufer erwischt hätte.
Folgendes spricht dafür:
1. Gebrauchsspuren am Slot (die kleinen Pins) der Graka
2. Aufkleber der Antistatikfolie leicht versetzt angeklebt. Beim Abziehen habe ich bemerkt, dass der schon mal ab war.
Was dagegen spricht:
1. Keine Spuren am Slot von Befestigungsschrauben. Sieht aus wie neu.
2. Verpackung war original in Folie verpackt.
Hmm... werde daraus nicht so schlau. Naja, solange die Karte fehlerfrei läuft ist es mir schnuppe. Kann es sein, dass die Hersteller stichprobenartig einzelne Grakas testen?
DevilX
2010-05-20, 23:41:08
hatte auch das Gefühl das meine schonmal auf war..
Jede Grafikkarte wird getestet, alles andere wäre eine mittlere Katastrophe.
Die Frage ist nur wie weit die QS resp. wie genau die Karten im einzelnen getestet werden.
Die unterschiedliche VID eines jeden GF100, die nicht im Bios liegt sondern bei jeder Karte fix vergeben wird, lassen aber darauf schliessen, dass die Karten ziemlich akkurat inkl. Sicherheitsmarge unter die Lupe genommen werden um selbstverständlich auch den Ausschuss niedrig zu halten.
Bei der GTX480 gibts welche mit VID 0.9xxV und solche mit über 1.1xxV auf default Takt und ich meine damit keine OC-Versionen.
Ich hab zwei POV GTX480 hier die sind in der letzten Ziffer der S/N. genau um eine Zahl unterscheiden, die eine hat 1.013V und die andere 1.063V VID.
Die Packung beider war eingeschweisst und am unteren Ende des Slots waren bei beiden leichte Gebrauchsspuren zu sehen und das waren 100% keine Rückläufer weil beim Distributor quasi direkt aus dem grossen Karton gekauft.
dargo
2010-05-20, 23:59:39
Ich kann mit dem MSI-Afterburner V1.5.1 die VGPU nicht ändern. Kommt das erst mit der nächsten Version oder gibts schon eine Neue?
Megamember
2010-05-21, 00:20:16
Afterburner 1.6.0 beta 5 besorgen.
dargo
2010-05-21, 00:38:28
Ajo, habs gefunden. :tongue:
PS: meine Fresse, unter Last wir die GPU bei Games 91°C warm bei 68% Lüftergeschwindigkeit. Sind diese Temps. eigentlich normal? Bin so hohe Temps gar nicht gewohnt, die Luft die hinten rauskommt ist ganz schön heiß. Nicht, dass mir mein DVI-Kabel schmilzt. :D
LovesuckZ
2010-05-21, 00:42:14
Ja, ist normal. Auch nicht viel wärmer als die 8800GT - nu die hat die gesamte warme Luft im Gehäuse verteilt...
dargo
2010-05-21, 00:45:23
Warum kann ich den Coretakt (ist ausgegraut) bei der V1.6.0 Beta 5 nicht ändern? Bei der V1.5.1 gings noch. :confused:
kruemelmonster
2010-05-21, 01:01:56
Core = Shader / 2
Metalmaniac
2010-05-21, 01:04:38
Warum kann ich den Coretakt (ist ausgegraut) bei der V1.6.0 Beta 5 nicht ändern? Bei der V1.5.1 gings noch.
Hatte ich auch gedacht anfänglich. Der Coretakt ist aber am Shadertakt gekoppelt (Verhältnis 1:2), wenn Du den Regler veränderst, änderst Du auch den Coretakt.
Habe übrigens die selbe Karte wie Du. Laut einem Verkäufer von PCSpezialist, wo ich sie Anfang letzter Woche kaufte, sind die von "Point of view" besonders hochwertig, weil die angeblich bessere Bauteile verwenden würden. Kann ich zwar nicht glauben, aber meine läuft zumindest mit 0,875V VCore stabil auf 650MHz (mehr habe ich nicht getestet, das reicht ja auch erstmal). Selbst 0,85V könnten da im Alltag stabil sein, da lediglich das GPU-Tool alle 20-30sec einen einzelnen Fehler zeigt, was im normalen Spielealltag schon nicht so schlimm zu sein scheint dem Vernehmen nach, da das Tool herausfordernder ist als jegliche richtigen Spiele.
dargo
2010-05-21, 01:13:50
Core = Shader / 2
Ok, mich wundert es halt nur etwas weil mit der älteren Version der Coretakt verstellbar war. Sogar einzeln, unabhängig vom Shadertakt. Sieht das bei der V1.6.0 beta 5 bei euch auch so aus?
http://www4.pic-upload.de/thumb/21.05.10/cmtg674v2cnx.png (http://www.pic-upload.de/view-5711382/GTX470.png.html)
Habe übrigens die selbe Karte wie Du. Laut einem Verkäufer von PCSpezialist, wo ich sie Anfang letzter Woche kaufte, sind die von "Point of view" besonders hochwertig, weil die angeblich bessere Bauteile verwenden würden. Kann ich zwar nicht glauben, aber meine läuft zumindest mit 0,875V VCore stabil auf 650MHz (mehr habe ich nicht getestet, das reicht ja auch erstmal).
Auch mit dem MSI-Kombustor? Meine braucht schon die 0,900V mit Standard-Taktraten.
LovesuckZ
2010-05-21, 01:19:53
Es gibt nur noch eine Taktdomäne beim GF100. Und das ist der Shadertakt.
Metalmaniac
2010-05-21, 01:23:50
Auch mit dem MSI-Kombustor? Meine braucht schon die 0,900V mit Standard-Taktraten.
Da liefen besagte 0,85V fehlerfrei bei gleichzeitiger Übertaktung auf genannte 650Mhz. :smile:
dargo
2010-05-21, 01:44:55
Da liefen besagte 0,85V fehlerfrei bei gleichzeitiger Übertaktung auf genannte 650Mhz. :smile:
Dann hast du wohl ne gute GPU erwischt. Meine Karte schmiert in Heaven mit 0,900V ab @Standard-Takt. Wie hoch ist eigentlich die VGPU bei Last @Standard? 0,950V? Dann wird das wohl nichts hier mit Undervolting und leichtem OC. ;(
Metalmaniac
2010-05-21, 02:07:13
Wie hoch ist eigentlich die VGPU bei Last @Standard? 0,950V?(
Bei den meisten und auch mir ja. Gibt aber auch vereinzelte User welche eine Karte haben, die schon 1,025V für Standard-Takte per default im BIOS stehen haben. Ist halt einen ziemliche Serienstreuung gegeben bei den Fermis, wie mir scheint.
Naja etwa so wie bei CPUs, d.h völlig normal und imo immer noch besser wie bei G200 wo einfach jede Karte minimum gerundete 1.188V abgekriegt hat ohne Rücksicht auf bessere Chips (wovon es viele gab) die auch mit deutlich weniger Volt funktionierten.
dargo
2010-05-21, 09:12:18
Und womit kann ich die VGPU bei Last auslesen? Der MSI-Afterburner zeigt mir 0,912V an. Das kann aber kaum die Last-VGPU sein. :confused:
DevilX
2010-05-21, 09:16:14
Meine Hat für
Performance Level 0: 0,963
Performance Level 3: 1,038
Ausgelesen mit Nvidia Inspektor..
Ich habe mal OCCT laufen lassen der meldet nach 5-6 Minuten 4 Fehler obwohl ich default Spannung und Taktrate habe.
@Dargo nimm mal den Nvidia Inspektor
corvus
2010-05-21, 09:23:48
Und womit kann ich die VGPU bei Last auslesen? Der MSI-Afterburner zeigt mir 0,912V an. Das kann aber kaum die Last-VGPU sein. :confused:
zip in exe umbenennen
Du darfst auch den Afterburner nicht starten und resetten, der stellt immer auf 1.0 Volt
wenn du eine Karte mit nem niederen VID hast kann das schon sein<>0,912V in P0
ZÜNDELholz
2010-05-21, 09:34:43
Ich habe mal OCCT laufen lassen der meldet nach 5-6 Minuten 4 Fehler obwohl ich default Spannung und Taktrate habe.
Schlecht, meine zeigen mit Stockvoltage erst bei ca. 760Mhz Fehler in OCCT.
dargo
2010-05-21, 09:44:52
Meine Hat für
Performance Level 0: 0,963
Performance Level 3: 1,038
Ausgelesen mit Nvidia Inspektor..
Ich habe mal OCCT laufen lassen der meldet nach 5-6 Minuten 4 Fehler obwohl ich default Spannung und Taktrate habe.
@Dargo nimm mal den Nvidia Inspektor
Danke.
Meine Karte zeigt folgende Werte an:
Performance Level 0: 0,875
Performance Level 3: 0,912
Mich wundert nur, dass der Hersteller bei der VGPU absolut keinen Spielraum gelassen hat. Heaven läuft bei mir mit den 0,912V und Standard-Taktraten fehlerfrei durch. Senke ich die VGPU nur minimal auf 0,900V schmiert Heaven ab (Treiber setzt sich zurück). Lasse ich 0,912V dran und übertakte die GPU nur minimal auf 650Mhz schmiert Heaven ebenfalls ab. :freak: Ich bin echt am überlegen ob ich die Karte nicht zurückgeben soll. Sie ist imo viel zu heiß und zu laut (bei Last). :( Oh man, da kann man nur hoffen, dass der Refresh NV besser gelingt. Wann ist mit einem Refresh zu rechnen? Ich glaube kaum, dass ich bis zur nächsten Generation so lange aushalten kann.
PS: wann ist mit Custom-Designs beim Kühler und der GTX470 zu rechnen?
Megamember
2010-05-21, 09:50:32
Dann hast du wohl ne gute GPU erwischt. Meine Karte schmiert in Heaven mit 0,900V ab @Standard-Takt. Wie hoch ist eigentlich die VGPU bei Last @Standard? 0,950V? Dann wird das wohl nichts hier mit Undervolting und leichtem OC. ;(
Wie hoch ist denn deine VID? AUszulesen mit dem Afterburner unter Core Voltage wenn du noch nichts verstellt hast( nicht auf reset drücken).
Edit: Oh, da hab ich ne Seite vergessen.
kruemelmonster
2010-05-21, 10:22:48
Danke.
Meine Karte zeigt folgende Werte an:
Performance Level 0: 0,875
Performance Level 3: 0,912
Mich wundert nur, dass der Hersteller bei der VGPU absolut keinen Spielraum gelassen hat. Heaven läuft bei mir mit den 0,912V und Standard-Taktraten fehlerfrei durch. Senke ich die VGPU nur minimal auf 0,900V schmiert Heaven ab (Treiber setzt sich zurück). Lasse ich 0,912V dran und übertakte die GPU nur minimal auf 650Mhz schmiert Heaven ebenfalls ab.:freak:
Sei doch froh dass deine Karte mit so wenig Spannung läuft, meine 470er von Zotac kommt mit ihrer Standardspannung von 0,975v auf Crysis-stabile 660 MHz, für 670 reicht die Spannung nicht mehr aus. Andersrum komme ich bei Standardtakt nicht tiefer als 0,950v ohne Abstürze.
Ich bin echt am überlegen ob ich die Karte nicht zurückgeben soll. Sie ist imo viel zu heiß und zu laut (bei Last).
Wie warm bei wieviel % Lüftergeschwindigkeit wird sie denn? Crysis erzeugt bei mir 90°C bei 63% (Takt und Spannung auf default) und selbst übertaktet + mehr Spannung bleibt sie immer noch merklich leiser als die alte GTX 285 @ FTW.
Ausreichend Luftfluss im Gehäuse? 1A oder das 21er Bios?
Die Karte wegen der Hitze zurückgeben wird dir nicht viel bringen, die 90Grad C sind völlig normal da der Regler versucht die Karte mit einem kleinen Offset bei möglichst niedriger rpm auf diesem Wert zu halten.
Allerdings reagiert der Regler imo einwenig zu langsam, sieht man schön bei Furmark und Anno1404, da wird der Schwellenwert regelmässig überschritten und der Regler verzögert etwas zu lang.
Hingegen zu kurz wäre dann absolut nervtötend.
dargo
2010-05-21, 11:02:41
Sei doch froh dass deine Karte mit so wenig Spannung läuft, meine 470er von Zotac kommt mit ihrer Standardspannung von 0,975v auf Crysis-stabile 660 MHz, für 670 reicht die Spannung nicht mehr aus. Andersrum komme ich bei Standardtakt nicht tiefer als 0,950v ohne Abstürze.
Ich komme immer mehr zu dem Schluss, dass der Hersteller bei meiner Graka zu tief die VGPU gewählt hat. Ich meine:
VGPU@Standard(0,912V)@Standardtaktraten - Heaven läuft einwandfrei
VGPU@Standard@650Mhz Coretakt - Heaven schmiert ab
VGPU@0,900V@Standardtaktraten - Heaven schmiert ab
VGPU@0,937V@750Mhz Coretakt - Heaven läuft einwandfrei :freak:
Das Stück Silicium braucht einfach nur minimal mehr VGPU. Ich traue mich gar nicht höher mit dem Coretakt. X-D
GPU <> hui
Kühler <> pfui
Wie warm bei wieviel % Lüftergeschwindigkeit wird sie denn? Crysis erzeugt bei mir 90°C bei 63% (Takt und Spannung auf default) und selbst übertaktet + mehr Spannung bleibt sie immer noch merklich leiser als die alte GTX 285 @ FTW.
Bei Heaven und Graka@Standard 91°C bei 68% Lüfter.
Ausreichend Luftfluss im Gehäuse?
Eigentlich schon, damit hatte ich noch nie Probleme. Falls es als Anhaltspunkt hilft - beim offenen Gehäuse ist die Temp. meiner CPU 2°C tiefer als mit geschlossenem Gehäuse.
1A oder das 21er Bios?
36642
Megamember
2010-05-21, 11:16:08
0,937@750 ist saustark. Die Karte würde ich auf jedenfall behalten. Ich würde an deiner Stelle noch dafür sorgen das ein 120er Lüfter die Wärme direkt unter der Graka nach hinten raus pustet, das bringts.
68 Lüfterspeed bei Standarttakt ist allerdings auch viel, vielleicht braucht die Paste auch noch ein wenig bis sie richtig wegleitet bzw. du hast wirklich ein Belüftungsproblem.
Zatoichi
2010-05-21, 11:16:59
Da hab ich wohl echt Schwein gehabt. Meine beiden laufen mit 0,900 ohne Murren. Was mich nur wundert, ist das eure im Single Betrieb schon so hochdrehen. Während die andere Karte im Austausch war hat ich ja nur eine im Betrieb. Die ging nie höher als 86 Grad mit 53% Lüfter. Hab meistens OSD vom Precision mitlaufen. Mit 2 Karten sieht das Spiel dann schon anders aus, da sind die Idle Temps höher und unter Last natürlich auch. Da heitzt die untere die obere Karte :biggrin: Aber mehr wie 60% Lüfter hab ich auch da noch nicht gehabt, es sei denn ich habs fokussiert. Ist die Serienstreuung so extrem? Karten sind btw eine POV und eine MSI. Extreme Belüftung hab ich auch nicht im Gehäuse.
PS: Karten sind nonOC.
Iruwen
2010-05-21, 11:22:01
Wenn man das so liest kann man daraus eigentlich nur die Konsequenz ziehen dass man auf die zweite Runde mit durchschnittlich besseren Chips warten sollte wenn man keine Lust auf Russisch Roulette bzw. Fernabsatzgesetzexploiting hat.
dargo
2010-05-21, 11:35:12
68 Lüfterspeed bei Standarttakt ist allerdings auch viel, vielleicht braucht die Paste auch noch ein wenig bis sie richtig wegleitet bzw. du hast wirklich ein Belüftungsproblem.
Kleine Korrektur - Höchstwerte sind in Heaven 71% Lüfter bei 92°C GPU @Standard.
Edit:
750Mhz Coretakt, 1700Mhz Vram @0,937V - 77% Lüfter bei 91°C.
PS: Bis 61% finde ich den Lüfter bei Last noch ok. Ab 68% wirds langsam ungemütlich. ;(
Metalmaniac
2010-05-21, 11:46:03
Kleine Korrektur - Höchstwerte sind in Heaven 71% Lüfter bei 92°C GPU @Standard.
Diese Lüfterdrehzahl habe ich jetzt bei meinen 0,875V VCore unter Last, um auf die 90-91°C zu kommen. Mit Standardspannung benötigte der Lüfter bereits mind. 77% Drehzahl um die Karte auf ~93°C zu halten. Und momentan ist es noch relativ kühl hier bei mir zuhause. Im Sommer wirds bestimmt geräuschintensiv. Glücklicherweise bin ich nicht empfindlich diesbezüglich. Mein Tower mit seinen 5 80er Gehäuselüftern ist eh relativ laut. Haben ja auch schon ca. 5 Jahre (oder sogar mehr) auf dem Buckel.
LovesuckZ
2010-05-21, 12:34:28
Ein Tipp: Die Lüfterdrehzahl per Afterburner anpassen. nvnews.net hat sich damit befasst und bei einer GTX480 kann man die Karte leiser und kühler bekommen, wenn die Wärme eher wegbefördert wird:
http://www.nvnews.net/vbulletin/showthread.php?t=149400
Ab 68% wirds langsam ungemütlich. ;(
Das entspricht 4,8 Sone.
MfG,
Raff
Megamember
2010-05-21, 12:52:20
Meine neue 480 wird max 85 Grad bei 62% Lüfterspeed in Heaven, dank:
http://www.abload.de/thumb/0031xnk.jpg (http://www.abload.de/image.php?img=0031xnk.jpg)
:D
Daneben hab ich sie noch von 0,988 auf 0,950V undervolted. Läuft alles super, kann sogar noch übertakten wenn ich möchte.
hq-hq
2010-05-21, 12:54:01
Edit:
750Mhz Coretakt, 1700Mhz Vram @0,937V - 77% Lüfter bei 91°C.
77% ??? das kann aber eigentlich nicht sein, hab 745mhz@0,987v bei glaub 71% (müsste ich heut abends mal nachsehen) hab ich 85°C:freak: (nach ca 3h just cause2)
aso warte mal du hast ne gtx480 ^^ ... ok ok
dargo
2010-05-21, 12:57:07
Meine neue 480 wird max 85 Grad bei 62% Lüfterspeed in Heaven, dank:
http://www.abload.de/thumb/0031xnk.jpg (http://www.abload.de/image.php?img=0031xnk.jpg)
:D
Daneben hab ich sie noch von 0,988 auf 0,950V undervolted. Läuft alles super, kann sogar noch übertakten wenn ich möchte.
Warum hast du die beiden Slotblenden dringelassen wenn der 120-er Lüfter die Luft rausbläst? :|
Ich werde die Karte noch mit paar Games testen. Es wird aber höchstwahrscheinlich darauf hinauslaufen, dass ich sie zurückschicke. Die Kühlung ist mir zu heftig, irgendwo müssen Grenzen gesetzt werden. Imo ist die Kühlung völlig unterdimensioniert.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.