PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : xbitlabs artikel leistungsbedarf grafikkarten


Gast
2004-08-24, 14:31:22
der zweite teil des artikels der sich mit der genauen messung des stromverbrauchs von grafikkarten befasst ist online (diesmal die nVidia-karten), mit teils überraschenden resultaten: der sehr hohe leistungsbedarf der 9800er karten im idle-modus (wußte gar nicht daß ich solch ein stromhungriges monster im slot hängen hab), und der ebenfalls sehr hohe (eigentlich höchste) stromverbrauch der 5950ultra unter last.

zum thema "unter last": farcry als puren grafik-stresstest zu benutzen ist meiner meinung nach ziemlich unpassend; wären 3dmark03 oder vielleicht RTHDRIBL nicht angemessener für diesen zweck ?
könnte dies vielleicht die erklärung für den "niedrigen" leistungsbedarf der 6800er sein ? (wenn´s wirklich so wäre, freuen würde es mich auf jeden fall, da meine 6800GT bald kommt). nVidia spricht schließlich von über 100W; oder ist das ein worst-case-scenario welcher scheinbar in der praxis doch nicht eintritt ?


/edit L.
Link zum genannten Artikel:
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html

Gast
2004-08-24, 14:39:31
oder ist das ein worst-case-scenario welcher scheinbar in der praxis doch nicht eintritt ?


So ist es. Aber worstcase Betrachtungen muessen nunmal sein, um die kuehlung ausreichend dimensionieren/berechnen zu koennen.
Eine Karte soll ja auch unter widrigen Umstaenden noch fehlerfrei laufen.

Threadstarter
2004-08-24, 14:49:37
So ist es. Aber worstcase Betrachtungen muessen nunmal sein, um die kuehlung ausreichend dimensionieren/berechnen zu koennen.
Eine Karte soll ja auch unter widrigen Umstaenden noch fehlerfrei laufen.
natürlich, das ist klar.
worauf ich eigentlich hinauswollte ist daß ATI´s angaben bezüglich des stromverbrauchs ihrer chips ziemlich gut zu den messungen der xbitlabs passen; bei nVidia dagegen sind die ergebnisse der messungen deutlich unter den (ursprünglichen) angaben des herstellers. deshalb frage ich mich ob es wohl an verbesserungen an den chipproduktion liegt, oder eher daran das FarCry den chip nicht so stark auslastet wie z.b. ein echter (synthetischer) stresstest.

Threadstarter
2004-08-24, 14:59:52
bevor mich hier einer zur schnecke macht, soll selbstverständlich "an der chipproduktion" und "daran daß FarCry" heißen. :D

DrumDub
2004-08-24, 16:09:05
ich poste einfach mal den link zum artikel...

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html

ist echt erstaunlich, dass ne 5959u mehr verbraucht als die 6800u. da sahen die ersten tests ja noch ganz anders aus (ca. 5-10w) mehr. wahrscheinlich lag das aber wirklich an den vorserienmodellen, die damals getestet wurden.

hier gibts die gesamtübersicht:

http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

damit wäre das gerücht des nv40 als energiefresser eindeutig widerlegt.

StefanV
2004-08-24, 16:22:26
http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

damit wäre das gerücht des nv40 als energiefresser eindeutig widerlegt.
Naja, im Vergleich zur X800 ist sie das allerdings (7-9W mehr bei ähnlicher Leistung)...

Und etwa 12W mehr Idle, bei der großen 6800...

DrumDub
2004-08-24, 16:30:09
Naja, im Vergleich zur X800 ist sie das allerdings (7-9W mehr bei ähnlicher Leistung)...

Und etwa 12W mehr Idle, bei der großen 6800...

korrekt. den idle-modus find ich noch am störensten, aber im vegelich zm nv3x ist der nv40 echt ein stormsparwunder für die gebotene leistung. wenn man sich dagegen die 5700u anguckt... die ist ja echt nen witz.

dav133
2004-08-24, 16:38:45
Komischerweise frisst mein kompletter PC idle nur 85Watt...

Von daher finde ich das eigentlich ziemlich egal, wie hoch die Idle Verlustleistung der karten ist.

Gast
2004-08-24, 16:43:59
also mir gefallen die werte der 6800nu wirklich gut. ich glaub das wird meine nächste karte - vor allem dann, wenn sie mit dem nv41 bestückt wird.

reunion
2004-08-24, 16:55:17
ich poste einfach mal den link zum artikel...

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html

ist echt erstaunlich, dass ne 5959u mehr verbraucht als die 6800u. da sahen die ersten tests ja noch ganz anders aus (ca. 5-10w) mehr. wahrscheinlich lag das aber wirklich an den vorserienmodellen, die damals getestet wurden.

hier gibts die gesamtübersicht:

http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

damit wäre das gerücht des nv40 als energiefresser eindeutig widerlegt.

Und warum verwendet NV beim NV40U dann zwei Stromanschlüsse und bei der angeblich stromhungrigeren Fx5950U nur einen?

Absolut unlogisch...

Gast
2004-08-24, 17:06:41
Und warum verwendet NV beim NV40U dann zwei Stromanschlüsse und bei der angeblich stromhungrigeren Fx5950U nur einen?

Absolut unlogisch...


Vielleicht weil einige Nutzer mit schwachbrüstigeren Netzteilen Probleme hatten und man nun damit entgegenwirken wollte? Zumal es ja eigentlich nicht schlecht, da man somit stromengpässe umgehen kann und es nur stabiler dadurch laufen kann.

DrumDub
2004-08-24, 17:16:39
Und warum verwendet NV beim NV40U dann zwei Stromanschlüsse und bei der angeblich stromhungrigeren Fx5950U nur einen?

Absolut unlogisch...

lies den artikel, dann verstehst du es. ;)

Quasar
2004-08-24, 17:25:04
ich poste einfach mal den link zum artikel...

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html

ist echt erstaunlich, dass ne 5959u mehr verbraucht als die 6800u. da sahen die ersten tests ja noch ganz anders aus (ca. 5-10w) mehr. wahrscheinlich lag das aber wirklich an den vorserienmodellen, die damals getestet wurden.

hier gibts die gesamtübersicht:

http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

damit wäre das gerücht des nv40 als energiefresser eindeutig widerlegt.

Schade, xBit ist momentan wohl nicht erreichbar, aber krass finde ich es schon, wie gut sich die Messungen des Gesamtsystems in den einzelnen Karten wiederfinden. ;) (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/19/#leistungsaufnahme)

DrumDub
2004-08-24, 17:40:49
Schade, xBit ist momentan wohl nicht erreichbar,

wuss? bei mir läuft alles problemlos... sonst würde ja auch die grafik oben nicht angezeigt. ;)


aber krass finde ich es schon, wie gut sich die Messungen des Gesamtsystems in den einzelnen Karten wiederfinden. ;) (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/19/#leistungsaufnahme)

wobei das nicht immer ganz passt. siehe unter vollbelastung 9800xt. ;)

für den idle-modus ist die übereinstimmung aber erstaunlich.

Quasar
2004-08-24, 17:49:20
Komisch, Opera beharrt weiterhin darauf, bei xBit einen MySQL-Fehler anzuzeigen - der IE macht's ohne Probleme...

Die Unterschiede mögen evtl. in der Meßart liegen - xBit testete in 1600x1200 mit 4xAA (/und max AF), das hatte ich mir auch überlegt, dann aber davon Abstand genommen, da hier die GPU IMO zu oft auf den Speicher warten dürfte.

seahawk
2004-08-24, 18:15:00
Naja, im Vergleich zur X800 ist sie das allerdings (7-9W mehr bei ähnlicher Leistung)...

Und etwa 12W mehr Idle, bei der großen 6800...

Na und was ist dann die 9800XT im Vergleich zur 5950 im Idle-Zustand ??

Oder auch im Vergleich zur X800XTPE oder 6800Ultra ??

svenska
2004-08-24, 19:27:21
Komisch, Opera beharrt weiterhin darauf, bei xBit einen MySQL-Fehler anzuzeigen - der IE macht's ohne Probleme...

Die Unterschiede mögen evtl. in der Meßart liegen - xBit testete in 1600x1200 mit 4xAA (/und max AF), das hatte ich mir auch überlegt, dann aber davon Abstand genommen, da hier die GPU IMO zu oft auf den Speicher warten dürfte.


page war vorhin auch down. jetzt gehts aber. :roll:

Gast
2004-08-24, 19:29:55
Irgendwie trau ich obigen Zahlen nicht ganz.

Von der FX5700 zu 5700U fast das 2,5 fache beim Idlen und knapp das doppelte unter Last? Wie soll denn das gehen?

Threadstarter
2004-08-24, 19:34:20
Leute, könnte bitte jemand mal was zu meiner eigentlichen frage sagen ?
noch mal kurz zusammengefaßt: es geht mir darum, daß laut xbitlabs der stromverbrauch der ATI karten mit den angaben des herstellers übereinstimmt, der der nVidia karten überhaupt nicht. nVidia ist doch wohl nicht so blöd, einen um ~40% höheren stromverbrauch anzugeben wenn dem nicht so wäre (zumal alle die etwas gegen nVidia haben dies zu gerne als hauptargument gegen die 6800er benutzen, ansonsten gibt´s ja wenig dran rumzumeckern).
Meine meinung ist daß Farcry (im gegensatz zu synthetischen grafiktests) die grafikkarte nicht genug auslastet und der verbrauch deshalb niedriger ist; dies wiederum würde nicht erklären wieso die ATI karten den angegebenen wert erreichen.
Entweder ist der 100+W wert von nVidia ein absolutes worst-case-scenario der tatsächlich nicht zu erreichen ist, aber dann können die ~60W von ATI keinen worst-case wert darstellen, da dieser in der praxis erreicht wird.
Ich möchte gerne eure meinungen hören

StefanV
2004-08-24, 19:40:33
Irgendwie trau ich obigen Zahlen nicht ganz.

Von der FX5700 zu 5700U fast das 2,5 fache beim Idlen und knapp das doppelte unter Last? Wie soll denn das gehen?
DDR-I RAM zu DDR-II RAM.

svenska
2004-08-24, 19:41:30
Leute, könnte bitte jemand mal was zu meiner eigentlichen frage sagen ?
noch mal kurz zusammengefaßt: es geht mir darum, daß laut xbitlabs der stromverbrauch der ATI karten mit den angaben des herstellers übereinstimmt, der der nVidia karten überhaupt nicht. nVidia ist doch wohl nicht so blöd, einen um ~40% höheren stromverbrauch anzugeben wenn dem nicht so wäre (zumal alle die etwas gegen nVidia haben dies zu gerne als hauptargument gegen die 6800er benutzen, ansonsten gibt´s ja wenig dran rumzumeckern).
Meine meinung ist daß Farcry (im gegensatz zu synthetischen grafiktests) die grafikkarte nicht genug auslastet und der verbrauch deshalb niedriger ist; dies wiederum würde nicht erklären wieso die ATI karten den angegebenen wert erreichen.
Entweder ist der 100+W wert von nVidia ein absolutes worst-case-scenario der tatsächlich nicht zu erreichen ist, aber dann können die ~60W von ATI keinen worst-case wert darstellen, da dieser in der praxis erreicht wird.
Ich möchte gerne eure meinungen hören

also wenn das hier stimmt:
[..]Farcry 1600x1200 resolution with forced 4x full-screen antialiasing and 16x anisotropic filtering

..dann dürfte eigentlich eine CPU limitierung ausgeschlossen sein...
aber vll, abreitet die karte ja irgendwie anders mit der CPU zusammen *spekulier*
vll ist wäre dass ein ansatz. sicher ist aber, um das zu untermauern, wäre ein anderer "game" test hilfreich.

seahawk
2004-08-24, 19:42:41
Leute, könnte bitte jemand mal was zu meiner eigentlichen frage sagen ?
noch mal kurz zusammengefaßt: es geht mir darum, daß laut xbitlabs der stromverbrauch der ATI karten mit den angaben des herstellers übereinstimmt, der der nVidia karten überhaupt nicht. nVidia ist doch wohl nicht so blöd, einen um ~40% höheren stromverbrauch anzugeben wenn dem nicht so wäre (zumal alle die etwas gegen nVidia haben dies zu gerne als hauptargument gegen die 6800er benutzen, ansonsten gibt´s ja wenig dran rumzumeckern).
Meine meinung ist daß Farcry (im gegensatz zu synthetischen grafiktests) die grafikkarte nicht genug auslastet und der verbrauch deshalb niedriger ist; dies wiederum würde nicht erklären wieso die ATI karten den angegebenen wert erreichen.
Entweder ist der 100+W wert von nVidia ein absolutes worst-case-scenario der tatsächlich nicht zu erreichen ist, aber dann können die ~60W von ATI keinen worst-case wert darstellen, da dieser in der praxis erreicht wird.
Ich möchte gerne eure meinungen hören

Mir ist nicht bekannt, dass NV eine Verlustleistung jemals offiziell angegeben hätte. Die Empfehlung für ein 480W Netzteil und die 2 Anschlüsse machen Sinn, wie man im Bericht über die Ultra lesen kann.

Quasar
2004-08-24, 20:44:19
Mir ist nicht bekannt, dass NV eine Verlustleistung jemals offiziell angegeben hätte. Die Empfehlung für ein 480W Netzteil und die 2 Anschlüsse machen Sinn, wie man im Bericht über die Ultra lesen kann.

Halboffiziell (k.A. ob das PDF öffentlich ist) haben sie die Leistungsaufnahme der QuadroFX4000 mal mit 130W+ angegeben - darauf beruhten IMO auch Gerüchte, der NV40 könne bis zu 150W schlucken.
Eventuell war dies aber nur eine vorsichtige Prognose, die dem Worst-Case für Systemintegratoren vorbeugen sollte, bevor die nötige Core-Spannung der Serien-GPUs bekannt war.
Es hat nach dem nV30-Design-Debakel auch bestimmt keiner bei nV damit gerechnet, daß A0 bereits final-luaffähig sein würde.

Xmas
2004-08-24, 22:11:49
AMD und Intel machen ja auch ähnlich unterschiedliche Angaben, insofern verwundert mich das nicht.

DrumDub
2004-08-25, 10:30:43
Halboffiziell (k.A. ob das PDF öffentlich ist) haben sie die Leistungsaufnahme der QuadroFX4000 mal mit 130W+ angegeben - darauf beruhten IMO auch Gerüchte, der NV40 könne bis zu 150W schlucken.
Eventuell war dies aber nur eine vorsichtige Prognose, die dem Worst-Case für Systemintegratoren vorbeugen sollte, bevor die nötige Core-Spannung der Serien-GPUs bekannt war.
Es hat nach dem nV30-Design-Debakel auch bestimmt keiner bei nV damit gerechnet, daß A0 bereits final-luaffähig sein würde.

eben. nicht umsonst hat nvidia die netzteilvorgeben von ner 480w psu auf 350w gesenkt. die waren wohl selbst erstaunt, dass ihr 222 mio. transistoren monster sowenig energie verbrät. :)


seahawk

die r3x0 sind leider echt stromfresser im idle-modus... ;(
aber das war ja schon länger bekannt.

don_salieri
2004-08-25, 13:50:15
Komischerweise frisst mein kompletter PC idle nur 85Watt...

Von daher finde ich das eigentlich ziemlich egal, wie hoch die Idle Verlustleistung der karten ist.Merkwürdig...mein Rechner (2400+, 9800pro, 1 GB RAM, nix übertaktet) verbrät im Idle ca. 150 Watt. Ich vermute dass mein Netzteil (CWT 300 Watt mit aktiver PFC) extrem ineffizient ist.

Andererseits erscheinen mir 85 Watt doch extrem wenig, kann es sein dass Dein Messgerät falsche Werte anzeigt (Netzteil ohne PFC)?

dav133
2004-08-25, 14:52:55
Merkwürdig...mein Rechner (2400+, 9800pro, 1 GB RAM, nix übertaktet) verbrät im Idle ca. 150 Watt. Ich vermute dass mein Netzteil (CWT 300 Watt mit aktiver PFC) extrem ineffizient ist.

Andererseits erscheinen mir 85 Watt doch extrem wenig, kann es sein dass Dein Messgerät falsche Werte anzeigt (Netzteil ohne PFC)?


1)Maxtor 6y080lo
2)Samsung spn120n oder so
3)Barton @ 1,45V @ 1921MHz
4)Radeon 9800 Pro @ Defaulttakt
5)MSI K7n2 dela.L
5)2xCorsair DDR333 @ 2,5V
6)420W NoName NT

und 7) (ganz wichtig): CPUidle, um die CPU in den Stromsparmodus zu setzen.

Dann noch 4 Kathoden, 5 Potis und 2 DVD-Brenner...

Wundert mich auch. Aber das Messgerät ist definitiv korrekt.

don_salieri
2004-08-25, 16:03:28
1)Maxtor 6y080lo
2)Samsung spn120n oder so
3)Barton @ 1,45V @ 1921MHz
4)Radeon 9800 Pro @ Defaulttakt
5)MSI K7n2 dela.L
5)2xCorsair DDR333 @ 2,5V
6)420W NoName NT

und 7) (ganz wichtig): CPUidle, um die CPU in den Stromsparmodus zu setzen.

Dann noch 4 Kathoden, 5 Potis und 2 DVD-Brenner...

Wundert mich auch. Aber das Messgerät ist definitiv korrekt.Tjo CPUidle funktioniert auf meinem nforce2-Board leider nicht (stürzt ständig ab). Ich habe allerdings vor kurzem mal meine CPU auf 650 MHz untertaktet (Original 2000 MHz, 2400+ halt); dabei spare ich dann immerhin ca. 20 Watt ein. Aber 130 Watt sind immer noch der Hammer für einen Rechner der Däumchen dreht :wink:

BlueI
2004-08-25, 16:08:33
Tjo CPUidle funktioniert auf meinem nforce2-Board leider nicht (stürzt ständig ab). Ich habe allerdings vor kurzem mal meine CPU auf 650 MHz untertaktet (Original 2000 MHz, 2400+ halt); dabei spare ich dann immerhin ca. 20 Watt ein. Aber 130 Watt sind immer noch der Hammer für einen Rechner der Däumchen dreht :wink:
OT: Mal im BIOS nach einer Funktion namens "C1 Disconnect" oder ähnlich geguckt? Dort dann auf Enabled setzen und schon hast du dasselbe Ergebnis wie mit genannten Tools.
=)

Grestorn
2004-08-25, 16:11:28
und 7) (ganz wichtig): CPUidle, um die CPU in den Stromsparmodus zu setzen.
Hm, ab Win2k wird der Prozessor vom System automatisch im Idle-Prozeß auf "HALT" gesetzt.

Oder meinst Du, der Prozessor wird in einen echten Stromsparmodus (also z.B. S3) gesetzt? Ich binb jetzt nicht detailliert informiert, aber das erscheint mir im normalen Betrieb als problematisch, schließlich läuft im System immer der eine oder andere Prozeß kurz an, so dass alle paar 10tel Sekunden der Prozessor aus dem S3 erweckt werden muss um dann gleich darauf wieder einzuschlafen... Ist das wirklich so gut?

StefanV
2004-08-25, 16:30:37
Hm, ab Win2k wird der Prozessor vom System automatisch im Idle-Prozeß auf "HALT" gesetzt.


Ja, ABER das darf nicht vom MoBo/BIOS verhindert werden!!

CPU Idle Programme forcen den HLT Mode ;)


Erklärung:

Bei einigen AMD CPUs mit einem halben Multi läuft der HLT Mode nicht zuverlässig, der Rechner kann sogar abschmieren, wenn der HLT Mode aktiviert ist.
Dagegen ist eben jener von den BIOS Proggern deaktiviert.
Es gibt aber einige, neuere, Bretter, bei denen man das aber aktivieren kann, AFAIK haben die aber alle einen VIA Chipsatz :)

Gast
2004-08-25, 18:01:13
WorstCase vielleicht 2 Schirme -> Surroundgaming + Videoausgabe + En-/Dekodieren im Hintergrund?

Leonidas
2004-08-28, 04:32:43
zum thema "unter last": farcry als puren grafik-stresstest zu benutzen ist meiner meinung nach ziemlich unpassend; wären 3dmark03 oder vielleicht RTHDRIBL nicht angemessener für diesen zweck ?




Im ersten Teil hatten sie erklärt, daß dies der beste Test gewesen sei, den sie gefunden hatten. Sicherlich gibt es irgendwo noch etwas bessere, aber sie haben nicht den erstbesten Test genommen.

Leonidas
2004-08-28, 04:33:55
nVidia spricht schließlich von über 100W; oder ist das ein worst-case-scenario welcher scheinbar in der praxis doch nicht eintritt ?




Diese Angabe wurde IMO nach dem Launch wieder zurückgenommen. Natürlich kommen diese Messungen nicht ganz an den WorstCase ran, aber der dürfte ja im normalen Gamer-Alltag auch kaum eintreten.

Leonidas
2004-08-28, 04:35:04
natürlich, das ist klar.
worauf ich eigentlich hinauswollte ist daß ATI´s angaben bezüglich des stromverbrauchs ihrer chips ziemlich gut zu den messungen der xbitlabs passen; bei nVidia dagegen sind die ergebnisse der messungen deutlich unter den (ursprünglichen) angaben des herstellers. deshalb frage ich mich ob es wohl an verbesserungen an den chipproduktion liegt, oder eher daran das FarCry den chip nicht so stark auslastet wie z.b. ein echter (synthetischer) stresstest.




Unterschiedliche Hersteller bedeuten wohl auch unterschiedliche Angaben zum Stromverbrauch. Womöglich geht NV deutlich vorsichtiger an die Sache heran.

Leonidas
2004-08-28, 04:37:14
Und warum verwendet NV beim NV40U dann zwei Stromanschlüsse und bei der angeblich stromhungrigeren Fx5950U nur einen?
Absolut unlogisch...



Stimmt. Hängt aber vermutlich damit zusammen, daß die Vorserienmodelle des NV40 wirklich 100 Watt gefressen haben. Deswegen auch diese Aussage von NV mit den 111 Watt, die dann wieder zurückgenommen wurde. Wäre logisch - was nicht heißt, das es so war.

Leonidas
2004-08-28, 04:38:54
Mir ist nicht bekannt, dass NV eine Verlustleistung jemals offiziell angegeben hätte. Die Empfehlung für ein 480W Netzteil und die 2 Anschlüsse machen Sinn, wie man im Bericht über die Ultra lesen kann.



NV hat die 480-Watt-Empfehlung inzwischen in eine 350-Watt-Empfehlung umgewandelt.

Mantikor
2004-08-28, 11:29:41
Und es gibt dennoch Leute, die es auf einem 300Watt Netzteil zum Laufen gebracht haben.
Nvidia sagt ja selber, dass ein Stromstecker auf dem default Takt von 400 ausreicht.

Mfg Der Mantikor

Quasar
2004-08-28, 15:41:57
Stimmt. Hängt aber vermutlich damit zusammen, daß die Vorserienmodelle des NV40 wirklich 100 Watt gefressen haben. Deswegen auch diese Aussage von NV mit den 111 Watt, die dann wieder zurückgenommen wurde. Wäre logisch - was nicht heißt, das es so war.

Stimmt nicht - warum das so ist, steht im xBit-Artikel auch erklärt.

Ulli K
2004-08-29, 10:05:21
Ich bekomme morgen oder übermorgen eine GeForce 6800ultra und habe dieses Netzteil Enermax EG365AX-VE (W) FCA .
Meint Ihr ich komme damit hin oder muss ich mir ein stärkeres Teil besorgen?
Der Rest des Systems in der Signatur.

Ulli

r@h
2004-08-29, 11:16:02
Ich bekomme morgen oder übermorgen eine GeForce 6800ultra und habe dieses Netzteil Enermax EG365AX-VE (W) FCA .
Meint Ihr ich komme damit hin oder muss ich mir ein stärkeres Teil besorgen?
Der Rest des Systems in der Signatur.Was genau hast Du jetzt an dieser Grafik nicht verstanden?

http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

Da steht doch eindeutig, dass im Idle-Betrieb Deine neue 6800U sogar weniger verbraucht, als Deine alte R9800XT, im Last-Betrieb dann aber 12W mehr... wenn also Dein System die 12W mehr nicht verträgt (was in etwa einer zusätzlichen Festplatte entspricht ;-), dann wird's nichts werden, oder?

Probier's einfach aus.
Ich denke, dass Dein Netzteil wirklich reichen sollte...
...wenn nicht, kannst Du Dir immer noch ein Neues holen, gell?
:D

Razor

Ulli K
2004-08-29, 11:32:03
Ja sicher sorry das ich mich so dämlich ausgedrückt habe aber wenns um Strom geht bin ich der totale Laie. :wink:

Ulli

StefanV
2004-08-29, 11:35:22
Ich bekomme morgen oder übermorgen eine GeForce 6800ultra und habe dieses Netzteil Enermax EG365AX-VE (W) FCA .
Meint Ihr ich komme damit hin oder muss ich mir ein stärkeres Teil besorgen?
Der Rest des Systems in der Signatur.

Ulli
Naja, soo doll sind die Enermax NTs nicht, da steht meist nur viel drauf, viel drin ist aber eher nicht...

Kann also durchaus eng werden, musst mal ausprobieren, die Fertigungstoleranzen scheinen bei Enermax auch gewaltig zu sein :|

r@h
2004-08-29, 11:42:56
Naja, soo doll sind die Enermax NTs nicht, da steht meist nur viel drauf, viel drin ist aber eher nicht...

Kann also durchaus eng werden, musst mal ausprobieren, die Fertigungstoleranzen scheinen bei Enermax auch gewaltig zu sein :|Im Extremfall braucht die neue Karte gerade mal 12W mehr...
Was Deine Antwort jetzt bitte jetzt damit zu tun haben?
Und hast Du Dir überhaupt sein System mal angeschaut?
:confused:

Razor

P.S.: Deine generelle 'Abneigung' gegen Enermax-NT's in allen Ehren, aber ein bissel sollte es schon zum Thema passen, oder?

Eliot
2004-08-30, 04:19:14
Was Deine Antwort jetzt bitte jetzt damit zu tun haben?

Razor

P.S.: Deine generelle 'Abneigung' gegen Enermax-NT's in allen Ehren, aber ein bissel sollte es schon zum Thema passen, oder?

Er meint eben, daß es eng werden kann und daß Enermax nicht die Wahl ist, die man treffen sollte, kann ich mit vollstem Herzen unterstützen ;-)
Ob die neue Karte im System läuft, ist auch mit ausreichendem Netzteil nicht gesichert, manche Boards haben oft ein sehr seltsames verhalten ;-)


Eliot.

Eliot
2004-08-30, 04:22:02
Und warum verwendet NV beim NV40U dann zwei Stromanschlüsse und bei der angeblich stromhungrigeren Fx5950U nur einen?

Absolut unlogisch...

Weil der Molex-Stromanschluß nicht für derart hohe Ströme ausgelegt ist, es will ja niemand, daß der Stecker zu schmelzen beginnt :D
(Man sollte dazu anmerken, daß über den ATX-Stecker teilweise auch viel zu hohe Ströme transportiert werden :wink:)


Eliot.

Ulli K
2004-08-30, 15:36:27
Hab die XFX GeForce6800ultra eben eingebaut und scheinbar reicht das Netzteil aus. Doom3 FarCry und NascarRacing 2003 getestet bis jetzt.
Noch keine Probleme.
Ulli

Coda
2004-08-30, 16:09:17
Und warum verwendet NV beim NV40U dann zwei Stromanschlüsse und bei der angeblich stromhungrigeren Fx5950U nur einen?

Absolut unlogisch...
Weil NV40 die Leistung ausschließlich über Molex zieht und die FX 5950U zusätzlich übern AGP.

MechWOLLIer
2004-08-30, 18:42:35
Nvidia sagt ja selber, dass ein Stromstecker auf dem default Takt von 400 ausreicht.
Mfg Der Mantikor

Glaub ich irgendwie nicht dran. Mit nur einem Molexstecker startet meine 6800U gar nicht mal. Sie piept nur unheimlich laut.

r@h
2004-08-30, 18:48:02
Hab die XFX GeForce6800ultra eben eingebaut und scheinbar reicht das Netzteil aus. Doom3 FarCry und NascarRacing 2003 getestet bis jetzt.
Noch keine Probleme.
UlliSach' ich doch...
Und viel Spaß mit dem neuen Teil!
:up:

Razor

MadManniMan
2004-08-31, 01:11:02
Hab die XFX GeForce6800ultra eben eingebaut und scheinbar reicht das Netzteil aus. Doom3 FarCry und NascarRacing 2003 getestet bis jetzt.
Noch keine Probleme.
Ulli

Laut der aktuellen PCGH ist das die Stromfress-O-Matic(tm) überhaupt - wenn der Rechner damit nicht abschmiert, sei er gegen jeden Verlustleistungsanschlag gefeit.

r@h
2004-08-31, 06:45:03
Laut der aktuellen PCGH ist das die Stromfress-O-Matic(tm) überhaupt - wenn der Rechner damit nicht abschmiert, sei er gegen jeden Verlustleistungsanschlag gefeit.Und das trifft nicht auch auf die FX5950u zu?
IMO ist der Doppel-Volt-In (tm) ein Schritt in die richtige Richutng, bei solchen Karten...

Auch schrieb er doch, dass er vorher 'nen r9800xt-Dauerbrenner drin hatte.
Da macht 'ne 6800u den Kohl auch nicht mehr fett...
:D

Razor

dav133
2004-08-31, 11:36:22
Laut der aktuellen PCGH ist das die Stromfress-O-Matic(tm) überhaupt - wenn der Rechner damit nicht abschmiert, sei er gegen jeden Verlustleistungsanschlag gefeit.


wie jetz? Im load verbraucht die 5950 doch sogar mehr oder?

MadManniMan
2004-08-31, 12:11:23
Öh, int0rpretiert mich bitte nicht falsch, ich gebe nur Fakten wieder ;)

Rechner:

FX-53
Asus SK8V-UAY
4*DDR400 reg. ECC @2.8V
GF6800U
RAID-0-Verband aus zwei WD1600 + WD740 zusätzlich (10.000U/min)
DVD-Rom
DVD-Brenner
Audigy 2 ZS
Hauppauge PVR350
7*12V Lüfter (ungedrosselt)
+ alle USB-Anschlüsse mit Stromfressern behängt.

"Q" = 2*AA, 4*AF

Antec True Power 430 - Etasis EFN-300 Fanless - Acmax LP-9960-PFC

Doom3 290 - 278 - Absturz
Doom3 Q 310 - 282 - Absturz
Far Cry 279 - 270 - 280
Far Cry Q 289 - 275 - 285 (instabil)
UT2004 258 - 255 - 256
UT2004 Q 262 - 260 - 265
Panzers 270 - 268 - 269
Panzers Q 275 - 268 - 268

Quasar
2004-08-31, 12:15:10
Da sollte man das Antec von TruePower in MieserWirkungsgrad umbennen.

Ist dir bekannt, ob das Etasys diese Belastung auch über längere Zeit wegstecken konnte?

Mave@Work
2004-08-31, 12:17:27
MMM meinte nicht die GraKa sondern DOOM3 als Stromfresser seh ich das richtig ?

MadManniMan
2004-08-31, 12:25:23
MMM meinte nicht die GraKa sondern DOOM3 als Stromfresser seh ich das richtig ?

Oh danke, jetzt habe ich das Misverständnis erkannt ;) Ja es ging um Doom3, nicht um den NV40U, danke Mave!

MadManniMan
2004-08-31, 12:28:43
Da sollte man das Antec von TruePower in MieserWirkungsgrad umbennen.

Naja, wenigstens blieb es stabil. Zudem war das Acmax auch noch als 520W NT vom Hersteller ausgezeichnet ;)
Das lüfterlose Fortron FSP350-60PN zog bei Doom3 Q 312,6W und segelte ab.

Ist dir bekannt, ob das Etasys diese Belastung auch über längere Zeit wegstecken konnte?

Blieb absolut rockstable(das als 300W NT!), laut Messung 72%iger Wirkungsgrad, erst beim Hitzetest (=NT mit Hitzestrahl0r [Fön? :ugly: ] bearbeitet) und 50° stieg das Teil langsam aus.