Archiv verlassen und diese Seite im Standarddesign anzeigen : an alle fx user mit 43.45 treibern ACHTUNG
Unregistered
2003-04-16, 22:50:07
ich habs gerade im beyond3d forum gelsesen.
http://www.pcekspert.com/articles/127-1.html
Quote:
Screensaver of Death
How can a screensaver cook a GeForce FX 5800 Ultra card?
Version 1.00 by Ozren Zagmester, PC Ekspert team – www.pcekspert.com
It’s very very simple!
Test system (even though this will probably work on any system):
AthlonXP 2400+
Chaintech Zenith 7NJS nForce2 board, NVIDIA nForce 2.03 drivers
2x 256MB Infineon PC3200
Gainward GeForce FX 5800 Ultra, NVIDIA Detonator 43.45 drivers
Terratec Aeron Sky 5.1, latest XP drivers, too lazy to look up as it’s unimportant anyway
DirectX9, Windows XP Pro SP1
To make a GeForce FX 5800 Ultra card suffer great pain, apart from Detonators 43.45 (we will test other versions of Detonators during the night) you need a 3D screensaver. Even the OpenGL screensavers like Pipes that come with Windows are OK, but for some serious “firepower” (to make the card extra hot in no time) you need a screensaver like Matrix Reloaded from www.uselesscreations.com or, the one we used the most, DiveVisions 2.0 from www.atlantis3d.com . This behavior was first noticed by Denis Arunovic from our team, and after he called me in the middle of the night, I joined the “hunt”.
Set up the screensaver to turn on itself after 1 minute, so you don’t have to wait too long. After the screensaver starts, you’ll hear the fan on the GF FX 5800 Ultra start spinning. Just wait around 5-10 secs and you’ll hear the fan stop! The 3D screensaver will continue playing on the screen, and after some time (depending on the screensaver) you’ll start seeing artifacts, or in the case of DiveVisions, the screen will look like the monitor was having some interference from a strong magnetic source. You can leave the screensaver running as long as you feel its safe, but don’t overdo it. We tried this around 10 times and were cautious enough not to let it run to long, as the temperature on the card, according to the drivers, reached 95-100C. According to my finger, the drivers were not lying (ouch!). When you end the screensaver, you’ll realize that your 2D screen is messed up and wavy. At this point the fan still won’t be running. To make it run, start something like 3dMark 2001. After you start the demo/benchmark, you’ll finally hear the fan! It will seem as if the 3dMark crashed, but just let it unattended. You’ll see some bizarre things but after a while the card will resume working as normal - when the fan cools it down (the cooling, when it works, is excellent, at least on the Gainward card).
This behavior was confirmed by Croteam who tried it with a NVIDIA reference board they received from NVIDIA Developer Relations, and also by a friend of mine with a MSI GF FX 5800 Ultra card. Also, if you try running the screensaver in the preview mode, the fan will spin the whole time. For this to work, it has to be done with a “real” screensaver, not with the preview of one. I am off to try this on a different system (just to make sure for one more time) and then I’ll start trying different Detonators.
Why this is happening? Well, we think that for some reason when using a 3D screensaver the card, or its drivers, decide the card is not running in 3D mode and stop the fan. The problem, of course, is that regardless of the temperature the card reaches, the fan won’t start running again (as long as you don’t exit the screensaver and start running 3dMark or some game like Il2 Sturmovik, Quake 3, etc.). This means that NVIDIA has made a big overlook on how the whole system of cooling-on-demand (i.e. when you are in 3D, or when you a reach high temperature) works. Basically the whole thing obviously works on the basis that the card/drivers will realize they are running in 3D, instead of also taking the temperature in consideration. I mean, you have the bloody thing that measures the temperature, why not use it as you should?
Answer might be that NVIDIA decided to minimize noise, and to do that decided the fan should not spin in 2D (or when the card thinks its in 2D) because it is very likely that the user will be doing something that does not produce much noise (for example writing a document in Word). When the user goes into 3D, to play a game, well then the game will produce lot of sound (explosions, music, you name it) that will diminish the noise that cooler on a GF FX 5800 Ultra card makes. I seriously hope this is not case. We’ll never know, as I am sure NVIDIA won’t admit such a thing even if it was true.
Sauerei! Man stelle sich vor, man aktiviert nen Screensaver, geht dann weg und wenn man wiederkommt ist die Karte abgeraucht.... über 500€ im Arsch - gut gemacht, nv!
:D
MfG
Raff
Quasar
2003-04-16, 23:41:11
Klingt spassig.....gleich mal probieren.
Ach nee, lieber doch nicht.... oder doch? ;)
darksun
2003-04-16, 23:43:10
:O Neue Klausel in NV's Garantiebestimmungen
"Bei aktivierung des Bildschirmschoners erlischt der Garantieanspruch" ;D
:chainsaw:
Sephiroth
2003-04-17, 00:03:19
Originally posted by darksun
:O Neue Klausel in NV's Garantiebestimmungen
"Bei aktivierung des Bildschirmschoners erlischt der Garantieanspruch" ;D
:chainsaw:
:rofl:
da hat die wakü auf der ??gainward?? fx ja noch nen weiteren vorteil, net nur die lautstärke ;D
da erklärt dich dein händler für verrückt wenn man ihm das sagen würde:
-jaaaa, meine fx is abgefackelt!!!
-wie des?
-ich hab den bildschirmschoner laufen lassen :D
-öh ja, schön...
nv sind solche roflopps :D
feflo
2003-04-17, 10:56:52
Dat ist ja was!!
Fragen dich deine Kumpels wie deine neu GeForce FX 5800 Ultra ist!!
Und du antwortest: Meine Graka wurde getötet!!
Freunde:Wer?Wie?
Du:Von meinem Bildschirmschoner!Die Karte ist ihm wohl aufm Sack gegangen !
Die hat immer nur gepfiffen und gepfiffen!! :D
StefanV
2003-04-17, 21:01:04
Hm, jemand mit GF FX meinte, daß die Karte zwar bis auf ~100°C hochheizt, mehr aber auch nicht :)
Unregistered
2003-04-17, 21:04:23
nja ~ nur 100°C...
feflo
2003-04-17, 22:06:24
Naja 100°C was ist denn dass schon :D
Silvasurfer
2003-04-17, 22:15:17
bald steht auf der verpackung:
jetzt neu ... mit eingebauten grill, für die pausen zwischendurch :D
aber das ist schon extrem was nvidia da bringt :)
Unregistered
2003-04-17, 22:44:26
Kann da nicht die Bude abbrennen?
Unregistered
2003-04-18, 00:55:52
http://www.chip.de/news/c_news_10407649.html
INDEX75
2003-04-18, 04:46:18
http://www.planet3dnow.de/vbulletin/images/smilies/hail.gif nVidia - Ihr seid Götter des Humors!
Nicht zu fassen http://www.planet3dnow.de/vbulletin/images/smilies/lachen70.gif
MfG
i75
Unregistered
2003-04-18, 11:25:43
Ihr seid!
Ausserdem möchte ich noch jemanden aus diesem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=66155) Thread quoten:
Wärs bei ATI passiert.... oh da hätts wieder Aufschreie bei der NVidia Fangemeinde gegeben.
Und was ist nun hier? Hier ist es keinen deut besser....
Godlike
2003-04-18, 16:04:11
Originally posted by Unregistered
Ihr seid!
Ausserdem möchte ich noch jemanden aus diesem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=66155) Thread quoten:
Und was ist nun hier? Hier ist es keinen deut besser....
Lesen kannst aber schon noch oder? Hat irgendeiner geschrieben, dass NVidia scheisse oder sonstwas ist?
Das einzig was in Richtung "Anti-NVidia" gegangen ist, war das mit den Göttern des Humors, sonst gar nix oder höchstens ein paar kleine Jokes...
Wenns bei ATI gewesen wäre, wärs gleich wieder mit "ATI macht schlechte Treiber, kein Spiel läuft ohne Patch einwandfrei usw." losgegangen.
StefanV
2003-04-18, 16:55:17
Originally posted by Godlike
Wenns bei ATI gewesen wäre, wärs gleich wieder mit "ATI macht schlechte Treiber, kein Spiel läuft ohne Patch einwandfrei usw." losgegangen.
Tjo, das liegt wohl daran, daß das Maß 'einiger' Member dieses Forums 'schief' ist...
Ich glaub nicht dass die Reaktion so unterschiedlich ausgefallen wäre. Das hält sich in vielen Fallen so ziemlich die Waage.
Quasar
2003-04-18, 17:08:42
Meinst du, Stefan "TV-out & Signalqualität" Payne? Schau dir doch mal die hämischen Postings hier an.
Klar, es waren "nur" kleine Späßchen....hätte ich im Nachhinein sicher auch gesagt.
Also: Hand hoch, wer von euch ist von diesem "Bug" (oder auch nicht, wer weiß?) betroffen??
warper_cookies_kaputt
2003-04-18, 17:17:59
Originally posted by Godlike
Lesen kannst aber schon noch oder? Hat irgendeiner geschrieben, dass NVidia scheisse oder sonstwas ist?
Das einzig was in Richtung "Anti-NVidia" gegangen ist, war das mit den Göttern des Humors, sonst gar nix oder höchstens ein paar kleine Jokes...
Wenns bei ATI gewesen wäre, wärs gleich wieder mit "ATI macht schlechte Treiber, kein Spiel läuft ohne Patch einwandfrei usw." losgegangen.
Ich glaube du hast mich missverstanden. Ich möchte mit dem Posting darauf ansprechen, dass nicht "nur" die nVidia Fangemeinde auf ATI rumhackt, sondern wie in diesem Thread mal wieder so schön gezeigt wurde, auch ATI Anhänger über nVidia lästern und niedermachen. Und das wegen den "höchstens ein paar Jokes": Ist das ontopic? Hat das was mit dem eigentlichen Thema zu tun? Meiner Meinung nach nicht.
Aber ich möchte hier nicht noch weiter darüber diskutieren, denn das ist ja eigentlich nicht der richtige Thread dafür.
Kein Mensch ist perfekt, wo Menschen arbeiten, passieren Fehler. So halt auch bei nVidia. Es ist zwar ein relativ schlimmer Fehler, aber ich bin mir sicher, dass nVidia diesen Fehler schnellstmöglichst korrigieren will. Achja, nicht dass man mir noch anhängt, ich wäre ein nVidia Freak: Ich selber habe ne Radeon9700pro.
just my 2 cents....
/me hebt die Hand und ist betroffen und schaut sich die Sache mal gerade genauer an.
[VFV_Spitfire]
2003-04-18, 18:44:55
Wir lästern aus gutem Grund über Nvidia! Denn wir, sogar ich als Nvidia Anhänger, haben gute Gründe dafür.
Es ist nun mal Fakt, dass die FX so laut ist wie ein Laubgebläse und dabei nicht mal schneller als eine normal gekühlte Radeon 9800 Pro.
Außerdem kann man sagen, dass man die FX am besten nicht im PC, sondern in der Küche zum Wasser kochen oder Spiegeleier braten verwendet.
Zum Wasser kochen wird es wohl nicht ganz reichen.
Razor
2003-04-18, 19:50:34
Wer hier der Meinung ist, dass die FX die erste Karte ist, welche zum Spiegeleier braten taugt (@Mond dauert ein bissel, aber es geht ;-), der hat offenbar überhaupt keine Ahnung. Habe hier noch die gute alte gfddr rum liegen, bei der es ähnlich ausgesehen hat.
.. wie dem auch sei, der BUG ist schon sehr unschön... aber sein wir doch ehrlich, wer wirft bei der Lautstärke schon einen 3D-Bildschirm-Schoner an, dessen Zweck eigentlich noch nie sonderlich sinnvoll war - oder was wird hier geschont ? - und braucht dann einen Ohrenschoner ?
:D
Ist also 'eh nur was für Masorchisten und damit zwar immer noch ein Bug, der aber wegen mangelnder Anwendung wohl kaum zum tragen kommen dürfte. Auch dürfen wir sicher sein, dass nVidia dies umgehen behebt. Schon aus eigenem Interesse...
Bis denne
Razor
Originally posted by Mond
Zum Wasser kochen wird es wohl nicht ganz reichen.
Nicht? Mit nem Screensaver im Rücken geht das schon, oder willst du uns erzählen, dass ca. 100°C zum Wasserkochen nicht ausreichen? ;)
edit: Stimmt Razor (und ja, wir haben wohl gleichzeitig aufs Knöpfchen gedrückt :D) Ich hätte da noch ein Bespiel: Die Voodoo3 3000 - der Passivkühler der Karte wurde so schweineheiß...AUA ;)
MfG
Raff
LovesuckZ
2003-04-18, 19:52:12
Originally posted by [VFV_Spitfire]
Es ist nun mal Fakt, dass die FX so laut ist wie ein Laubgebläse und dabei nicht mal schneller als eine normal gekühlte Radeon 9800 Pro.
Außerdem kann man sagen, dass man die FX am besten nicht im PC, sondern in der Küche zum Wasser kochen oder Spiegeleier braten verwendet.
Falsch, falsch, falsch...
Razor
2003-04-18, 19:52:30
Originally posted by Raff
Nicht? Mit nem Screensaver im Rücken geht das schon, oder willst du uns erzählen, dass ca. 100°C zum Wasserkochen nicht ausreichen? ;)
MfG
Raff
Haben wir gleichzeitig auf's Knöpfchen gedrückt ?
:D
Und Du brauchst in unseren Breitengraden hier sogar etwas mehr als 100° (101,6°, wenn ich recht erinnere ;-), um Wasser zum Kochen zu bringen. Geh' in die Berge und so auf 1500m Höhe reichen dann auch schon gute 95°...
Aber das nur am Rande !
;D
Bis denne
Razor
Originally posted by Razor
Haben wir gleichzeitig auf's Knöpfchen gedrückt ?
:D
Und Du brauchst in unseren Breitengraden hier sogar etwas mehr als 100° (101,6°, wenn ich recht erinnere ;-), um Wasser zum Kochen zu bringen. Geh' in die Berge und so auf 1500m Höhe reichen dann auch schon gute 95°...
Aber das nur am Rande !
;D
Bis denne
Razor
Hui, 1,6°C - ein ziemlich gewaltiger Unterschied ;D
Aber hey: Mit etwas Overclocking lässt sich das sicher einrichten, oder? :D
MfG
Raff
IMO wird der Bug zu sehr gehyped, man siehe hier.
http://www.hardtecs4u.com/?id=1050691648,96564,ht4u.php
StefanV
2003-04-18, 21:20:00
Originally posted by LovesuckZ
Falsch, falsch, falsch...
richtig, richtig, Ansichtssache :P
Was soll man da noch sagen - sehr gefährlicher Bug. IMHO unverständlich, dass man ausgerechnet an einer derart sensiblen Stelle wie der Steuerung der Kühlung so unachtsam ist. Aber gut, Fehler passieren jedem, nur hilft das den betroffenen Usern leider wenig.
Originally posted by Mond
IMO wird der Bug zu sehr gehyped, man siehe hier.
http://www.hardtecs4u.com/?id=1050691648,96564,ht4u.php
Das ist zwar beruhigend, aber andererseits auch wieder nicht. Die Karte/der Chip mögen bei 100°C+ zwar nicht gleich durchbrennen, aber die Lebensdauer der Komponenten wird durch eine derart hohe thermische Belastung zweifelsohne (ev. deutlich) reduziert.
LovesuckZ
2003-04-18, 23:40:37
Originally posted by Stefan Payne
richtig, richtig, Ansichtssache :P
Naja, du hast ja auch die Behauptung aufgestellt, dass das AF der FX nicht fuer heutige Games reiche...
Demirug
2003-04-18, 23:51:15
Ich will jetzt NVIDIA nicht in Schutz nehmen aber die Tatsache das das ganze in Verbindung mit einem Bildschirmschoner passiert macht mich etwas nachdenklich. Möglicherweise ist da ein Quereffekt mit dem Powermangment im spiel.
Einem Kollegen von mir hat das auch schon mal fast eine CPU wegen überhitzung gekostet weil das Bios zwar im Sparmodus die Lüfer abgeschalten hat aber nicht die CPU.
sun-man
2003-04-19, 23:43:34
Hi,
interessante Sache das. Hätte ich ne FX würde ich ab sofort nie wieder geleakte Treiber installieren. Am ende bauen Hasser noch die Funktion ein das Bildschirmschoner funzen die Karte aber UT2003 nicht mehr erkennt und somit nach 5 Minuten spielen die Karte im Case abfakelt.
Die meisten dürften mit Sound spielen oder gar mit Kopfhörern.
Ich glaub NV hat sich damit ein dickes Ding geleistet. Die Aussage von Hardtecs ist sicherlich richtig, wäre ja auch noch schöner wenn das alles durch Software geregelt würde, jedoch ist die Idee das dies aus dem Treibern kommt jetzt verbreitet.
MFG
Powermike
2003-04-20, 01:36:45
Der Artikel bzw. Versuch von Hartecs4u zeigt ja, dass die Karte zusätzlich wohl noch einen Überhitzungschutz hat, schliesslich lief da der Lüfter ja immer bei 105°C an...würde mich interessieren, was NVidia dazu sagt...
Razor
2003-04-20, 07:31:31
Originally posted by Powermike
Der Artikel bzw. Versuch von Hartecs4u zeigt ja, dass die Karte zusätzlich wohl noch einen Überhitzungschutz hat, schliesslich lief da der Lüfter ja immer bei 105°C an...würde mich interessieren, was NVidia dazu sagt...
Wozu sollen die was sagen ?
???
Ist doch OK, wenn der Lüfter IMMER bei 105° anspringt, oder nicht ?
Herunter takten tut sich das Teil dann bei - wieviel waren das noch ? - 140° ?
Da kann man doch was in den Treibern einstellen, wenn ich recht entsinne...
Wo also, ist hier genau das Problem ?
Dass Grafikfehler auftreten, wenn die Karte >100° heiß wird ?
(zumindest, wenn dabei der Lüfter nicht läuft ;-)
Das Treiber-'Prob' werden sie wohl fixen, wenn sie das als notwendig erachten und die Hardware hat offenbar überhaupt kein Problem (mal von den grundsätzlichen thermischen Gegebenheiten abgesehen).
WO IST DAS PROBLEM ?
War wohl, wie schon so oft, nur eine iNet Seifenblase...
Bis denne
Razor
Powermike
2003-04-20, 11:10:26
Möglicherweise ist das ja wirklich kein Bug, sondern ein Feature...
StefanV
2003-04-20, 11:15:08
Originally posted by Mogul
Hi,
interessante Sache das. Hätte ich ne FX würde ich ab sofort nie wieder geleakte Treiber installieren. Am ende bauen Hasser noch die Funktion ein das Bildschirmschoner funzen die Karte aber UT2003 nicht mehr erkennt und somit nach 5 Minuten spielen die Karte im Case abfakelt.
Die meisten dürften mit Sound spielen oder gar mit Kopfhörern.
Ich glaub NV hat sich damit ein dickes Ding geleistet. Die Aussage von Hardtecs ist sicherlich richtig, wäre ja auch noch schöner wenn das alles durch Software geregelt würde, jedoch ist die Idee das dies aus dem Treibern kommt jetzt verbreitet.
MFG
IIRC ist das aber ein offizieller Treiber, den man von der NV Seite runterladen kann...
StefanV
2003-04-20, 11:15:49
Originally posted by Razor
Wozu sollen die was sagen ?
???
Ist doch OK, wenn der Lüfter IMMER bei 105° anspringt, oder nicht ?
Herunter takten tut sich das Teil dann bei - wieviel waren das noch ? - 140° ?
Da kann man doch was in den Treibern einstellen, wenn ich recht entsinne...
Wo also, ist hier genau das Problem ?
Dass Grafikfehler auftreten, wenn die Karte >100° heiß wird ?
(zumindest, wenn dabei der Lüfter nicht läuft ;-)
Vielleicht, daß der Chip dabei 'etwas' schneller altert und somit schneller im Eimer ist ??
Razor
2003-04-20, 12:26:18
Originally posted by Stefan Payne
IIRC ist das aber ein offizieller Treiber, den man von der NV Seite runterladen kann...
Ja und ?
Wo ist das Problem ?
Razor
Razor
2003-04-20, 12:29:18
Originally posted by Stefan Payne
Vielleicht, daß der Chip dabei 'etwas' schneller altert und somit schneller im Eimer ist ??
Das ist doch wohl eine Verutung von Dir, oder ?
Und wie ist das mit den ganzen OC'ern hier ?
Meinst Du, dass sich das nicht auf die Lebensdauer auswirkt ?
Wie dem auch sei, ich hätte ganz gern' eine Info von Dir, wie lange der Chip ohne diesen 'Bug' hält und wie lange dann 'mit'. Wenn Du mir darauf keine Antwort geben kannst (weil Du es natürlich nicht weißt), dann laß solche Bemerkungen einfach.
Bis denne
Razor
P.S.: Das so etwas die Lebensdauer verlängert, glaub' ich auch nicht...
:D
Originally posted by Razor
Das ist doch wohl eine Verutung von Dir, oder ?
Das Wort nach dem du suchst ist "Tatsache" und nicht "Vermutung".
Originally posted by Razor
Und wie ist das mit den ganzen OC'ern hier?
Meinst Du, dass sich das nicht auf die Lebensdauer auswirkt ?
Selbstverständlich tut es das (theoreth. Ausnahme: die Betriebstemperatur und -spannung stimmen mit der nicht-übertakteten Variante überein, dann sollte die Beeinflussung der Lebensdauer gegen Null tendieren). Nur reden wir hier von einem Betrieb bei über 100°C und nicht von ein "bisschen Overclocking".
Originally posted by Razor
Wie dem auch sei, ich hätte ganz gern' eine Info von Dir, wie lange der Chip ohne diesen 'Bug' hält und wie lange dann 'mit'. Wenn Du mir darauf keine Antwort geben kannst (weil Du es natürlich nicht weißt), dann laß solche Bemerkungen einfach.
Es wäre hierzu bestenfalls eine Schätzung anhand von statistischen Daten möglich. Das ändert aber nichts am Faktum.
StefanV
2003-04-20, 12:53:46
Originally posted by Razor
Das ist doch wohl eine Verutung von Dir, oder ?
Und wie ist das mit den ganzen OC'ern hier ?
Meinst Du, dass sich das nicht auf die Lebensdauer auswirkt ?
Wie dem auch sei, ich hätte ganz gern' eine Info von Dir, wie lange der Chip ohne diesen 'Bug' hält und wie lange dann 'mit'. Wenn Du mir darauf keine Antwort geben kannst (weil Du es natürlich nicht weißt), dann laß solche Bemerkungen einfach.
Bis denne
Razor
P.S.: Das so etwas die Lebensdauer verlängert, glaub' ich auch nicht...
:D
1. von Elektromigration hast du schonmal was gehört, oder ??
Das das durch hohe Temperaturen begünstigt wird, scheint dir wohl nicht bekannt zu sein, auch höhere Spannungen begünstigen es...
2. oh mann...
Ich behaupte mal, daß bei einem 'richtigen' übertakter, der Hardwarschonend mit seiner Hardware umgeht und überall 'ne WaKü draufschnallt, die Komponenten länger halten als bei einem 'normalen' PC von der Stange...
Natürlich wirkt sich das auf die Lebensdauer aus, allerdings haben die Übertakter auch dickere Kühler und solange sie sparsam mit der Spannung umgehen verringert sich die Lebensdauer nicht soo stark.
Außerdem reden wir hier von (kern)Temperaturen um 100°C!!!
3. Razor, ansonsten gehts noch, was ??
Nur zur Info:
+10K -> halbe Lebensdauer
4. siehe oben, Stichwort Elektromigration.
Bevor du die Aussage einer Person anzweifelst, nur weil sie von einer Bestimmten Person stammen, solltest du dich lieber Informiren anstatt zu sagen, daß du demjenigen das nicht glaubst.
Powermike
2003-04-20, 13:00:45
Woher wollt Ihr eigentlich wissen für welche Temperaturen der Chip ausgelegt wurde?? Und über welche Lebendauer reden wir? 4 Wochen, 2-5-30 Jahre??
StefanV
2003-04-20, 13:08:33
Originally posted by Powermike
Woher wollt Ihr eigentlich wissen für welche Temperaturen der Chip ausgelegt wurde?? Und über welche Lebendauer reden wir?
Gesetze der Physik.
Je höher die Temp desto stärker die Elektromigration...
Originally posted by Powermike
Woher wollt Ihr eigentlich wissen für welche Temperaturen der Chip ausgelegt wurde??
Die Materialen sind überall dieselben, der Hersteller kann das dotierte Silizium gar nicht vor parasitären Effekten schützen. Und jetzt sieh' dir zum Vergleich mal die Maximaltemperaturen von CPUs an.
Originally posted by Powermike
Und über welche Lebendauer reden wir? 4 Wochen, 2-5-30 Jahre??
Nun, AFAIR rechnet man bei Intel mit einer "Mindesthaltbarkeit" von 10 Jahren (bei CPUs). Das ist wohl ein guter Maßstab.
Originally posted by Stefan Payne
Außerdem reden wir hier von (kern)Temperaturen um 100°C!!!
Was wohl doch erst mal geprüft werden sollte...
Razor
2003-04-20, 18:20:24
Nochmal Stefan & Ikon,
wie lange 'lebt' der Chip mit diesem 'Bug' und wie lange ohne ?
Entweder eine klare Antwort oder schluß mit diesem Gewäsch !
Wolln' wir wetten ?
Ich habt KEINE Ahnung...
Und deswegen ist Stefans Ansatz hier auch nur ein Pups im Sturm und mehr nicht.
Razor
Razor
2003-04-20, 18:21:23
Originally posted by Powermike
Woher wollt Ihr eigentlich wissen für welche Temperaturen der Chip ausgelegt wurde?? Und über welche Lebendauer reden wir? 4 Wochen, 2-5-30 Jahre??
DAS würde mich wirklich auch interessieren...
Razor
Razor
2003-04-20, 18:24:20
Originally posted by Stefan Payne
Bevor du die Aussage einer Person anzweifelst, nur weil sie von einer Bestimmten Person stammen, solltest du dich lieber Informiren anstatt zu sagen, daß du demjenigen das nicht glaubst.
Solange Du hier nur irgendwelches Zeugs brabbelst ohne auch nur den Ansatz eines Faktes darzulegen, lieber Herr Schmärtz, glaube ich Dir schlicht überhaupt nichts. Sowieso ist 'glauben' was für Warmduscher, denn ich persönlich halte mich - soweit dies geht - lieber an Fakten.
That's it !
Razor
Demirug
2003-04-20, 18:34:54
jaja das gute alte EM-Problem. Eine hübsche Sache für Statistiker. Leider kann man auf diesem Gebiet nur mit Wahrscheinlichkeiten arbeiten.
Wenn die FX Chips eine Millitärzulassung haben sind 105°C nicht wirklich viel. Millitärchips werden bei 125°C spezifiziert.
Was natürlich trotzdem interesant währe ist die MTTF und bei welcher Temperature diese spezifiziert ist.
Ich frage mich wieso ich den Eindruck gewonnen habe, dass einige krampfhaft einen hässlichen Treiberbug wegzudiskutieren versuchen.
StefanV
2003-04-20, 19:45:51
Originally posted by aths
Ich frage mich wieso ich den Eindruck gewonnen habe, dass einige krampfhaft einen hässlichen Treiberbug wegzudiskutieren versuchen.
Und ich frage mich, warum diejenigen, die versuchen den Bug wegzudiskutieren andauernd irgendwelche Leute beleidigen müssen...
(Herr Schmärtz emfinde ich als Beleidigung).
StefanV
2003-04-20, 19:47:45
Originally posted by Xmas
Was wohl doch erst mal geprüft werden sollte...
??
Martin hat doch gesagt, daß seine GF FX bis 105°C hochheizt...
Originally posted by Stefan Payne
??
Martin hat doch gesagt, daß seine GF FX bis 105°C hochheizt...
Nein, er sagte dass im Treiberpanel 105°C angezeigt werden. Das ist möglicherweise ein Unterschied.
StefanV
2003-04-20, 21:43:55
Originally posted by Xmas
Nein, er sagte dass im Treiberpanel 105°C angezeigt werden. Das ist möglicherweise ein Unterschied.
Stimmt, hast recht...
Können in wirklichkeit noch viel mehr Sein, je nach dem wie gut/schlecht das Treiberpanel 'lügt'...
Originally posted by Stefan Payne
Stimmt, hast recht...
Können in wirklichkeit noch viel mehr Sein, je nach dem wie gut/schlecht das Treiberpanel 'lügt'...
Aber Stefan, dass du immer das negativste annimmst. Rein theorethisch könnte es genauso eine bestimme "Sicherheitsreserve" draufschlagen (ähnlich gewissen Asus-Mainboards, die den auslesbaren Wert des CPU-Temperaturfühlers künstlich erhöhen).
StefanV
2003-04-20, 22:01:34
Originally posted by Ikon
Aber Stefan, dass du immer das negativste annimmst.
Sowas nennt man Realist oder Pessimist...
Originally posted by Ikon
Rein theorethisch könnte es genauso eine bestimme "Sicherheitsreserve" draufschlagen (ähnlich gewissen Asus-Mainboards, die den auslesbaren Wert des CPU-Temperaturfühlers künstlich erhöhen).
Das ist ein Optimist...
Es ist besser vom schlechten auszugehen, dann wird man nicht so schnell enttäuscht, als wenn man das beste hofft :)
=) /me ist definitiv Optimist -> dann ist man nicht so deprimiert den ganzen Tag :bäh:
Labberlippe
2003-04-20, 23:02:42
Hi
Ich frage mich immer wieder warum solche Probleme mit einen Schulterzucken abgetan werden.
Wenn die GPU der FX5800/Ultra am Limit rennt und dann noch Probleme mit der Lüftersteuerung hat, dann ist das nicht ohne...
Ich sehe auf die FX 5800/Ultra User ein grosses Problem zukommen.
Gerade im Sommer ist es wichtig das das Ding stabil rennt.
Abrauchen dürfte die GPU nicht, aber laut Hardtecs4u schaltet sich das Ding selbständig runter.
Kurz, die Kunden kaufen eine Karte welche dann kaum mehr vernünftige Frames bringt weil die sich selbst drosselt.
Wenn man Pech hat wird das System sogar wegen thermische Probleme instabil.
Ihr könnt schön reden wie Ihr wollt nur haben die Tests bis jetzt gezeigt, das die FX5800Ultra nicht tragbar für den Endkungen ist.
(Ich ziehe mich bewust nur auf diese Karte, da die kleinen FXs ja diese Problem anscheinend nicht haben. )
Schmerzlich ist es dennoch das nVIDIA hier ein Taktungsmonster (welches nicht einmal annähernd stabil rennt) ins Rennen wirft um gegen eine in 0.15Mikron gefertigte ATi Karte (laut nv jüngern hier) anzutreten.
Was die Argumtent von Razor betreffen.
Wie soll ich das jetzt auffassen ???
Willst Du jetzt jeden hier erzählten das man die HW am Limit laufen lassen kann ohne das dieses auf Dauer die HW schädigt.
Scherz oder?
Auch Dir als alten Hasen in der Branche sollte klar sein, das dieses nicht gut für die HW ist.
nVIDIA soll endlich Dampf geben und das in den Griff bekommen oder die FX5800 Ultra einstampfen.
Die Karte ist und bleibt eine pure Frechheit an den Endverbraucher.
Ich sehe es schon kommen, die Hersteller werden in Zukunft HW auf den Markt werfen welche als Leistungsieger gewertet werden, welche nur 5min stabil laufen.
Gruss Labberlippe
Powermike
2003-04-20, 23:57:33
Auch wenn ich mir nicht sicher bin, ob der Bug wirklich ein Bug ist...und ich keine ATI-Graka habe (und auch nicht haben werde)...werde ich mir als Silentfetischist selbstverständlich auch nicht dieses Kühlergrakamonster kaufen! Egal ober Bug oder nicht...
Gruß Mick
Originally posted by Labberlippe
Ich frage mich immer wieder warum solche Probleme mit einen Schulterzucken abgetan werden.
Werden sie das? Dieser Thread und noch ein paar andere zu diesem Thema zeigen doch das Gegenteil. Außerdem ist es ja offensichtlich nicht so, dass die Karte abraucht.
Von den Folgen her sehe ich das Problem als "gering" an (und von der Behebbarkeit erst recht): bei ohnehin wenigen FX5800-Besitzern, von denen noch weniger einen 3D-Bildschirmschoner nutzen, wird die Lebensdauer des Chips etwas verringert.
Schmerzlich ist es dennoch das nVIDIA hier ein Taktungsmonster (welches nicht einmal annähernd stabil rennt) ins Rennen wirft um gegen eine in 0.15Mikron gefertigte ATi Karte (laut nv jüngern hier) anzutreten.
Wo läuft die FX5800/Ultra nicht stabil?
Das "laut nv jüngern hier" verstehe ich nicht, was meinst du damit?
Powermike
2003-04-21, 01:23:30
Originally posted by Xmas
Werden sie das? Dieser Thread und noch ein paar andere zu diesem Thema zeigen doch das Gegenteil. Außerdem ist es ja offensichtlich nicht so, dass die Karte abraucht.
Von den Folgen her sehe ich das Problem als "gering" an (und von der Behebbarkeit erst recht): bei ohnehin wenigen FX5800-Besitzern, von denen noch weniger einen 3D-Bildschirmschoner nutzen, wird die Lebensdauer des Chips etwas verringert.
[/size]
Wo läuft die FX5800/Ultra nicht stabil?
Das "laut nv jüngern hier" verstehe ich nicht, was meinst du damit? [/SIZE]
*uneingeschränktzustimm*
Originally posted by Xmas
Wo läuft die FX5800/Ultra nicht stabil?
Das frage ich mich auch. Die c´t hat den FX5800 im aktuellen Heft eine gute Stabilität bescheinigt.
Zitat: "Trotz der hohen Taktfrequenzen und grossen Wärmentwicklung arbeiten Grafikkarten mit dem GeForce FX 5800 Ultra ausgereift und stabil, soweit man dies aus dem wenige Tage andauernden Testbetrieb ableiten kann."
Razor
2003-04-21, 09:20:44
Originally posted by Labberlippe
Ich sehe auf die FX 5800/Ultra User ein grosses Problem zukommen.
Gerade im Sommer ist es wichtig das das Ding stabil rennt.
Abrauchen dürfte die GPU nicht, aber laut Hardtecs4u schaltet sich das Ding selbständig runter.
Kurz, die Kunden kaufen eine Karte welche dann kaum mehr vernünftige Frames bringt weil die sich selbst drosselt.
Wenn man Pech hat wird das System sogar wegen thermische Probleme instabil.
Selbst drosseln tut sich die Karte nicht bei 105°, sondern bei 145° (wenn ich recht entsinne).
Bei 105° schaltet sich 'nur' in jedem Fall der Lüfter zu, ganz egal, was die Karte, bzw. der Treiber 'denkt'.
(i.e. 2D = Lüfter aus, 3D = Lüfter an, >= 105° Lüfter an, >= 145° Takt runter)
Und wenn der Chip bis 125° spezifiziert ist, dann interssieren ihn die 105° nicht wirklich...
Originally posted by Labberlippe
Ihr könnt schön reden wie Ihr wollt nur haben die Tests bis jetzt gezeigt, das die FX5800Ultra nicht tragbar für den Endkungen ist.
(Ich ziehe mich bewust nur auf diese Karte, da die kleinen FXs ja diese Problem anscheinend nicht haben. )
Was für ein quatsch, sorry...
Du hast den Artikel bei HT4U offensichtlich nicht zur Kenntnis genommen, oder ?
Hier wird einfach nur wieder was hochgepuscht...
Zeig mir bitte eine Karte, oder einen Reviewer oder einen Nutzer, dessen Karte abgeraucht ist.
Originally posted by Labberlippe
Was die Argumtent von Razor betreffen.
Wie soll ich das jetzt auffassen ???
Willst Du jetzt jeden hier erzählten das man die HW am Limit laufen lassen kann ohne das dieses auf Dauer die HW schädigt.
Scherz oder?
Auch Dir als alten Hasen in der Branche sollte klar sein, das dieses nicht gut für die HW ist.
Wie auch Demirug schon sagte, ist das was für Statistiker...
Ich frage lediglich nach Fakten !
Für CPU's wäre eine solche Temperatur schlicht tödlich, für eine (nVidia-) GPU ist es das offensichtlich nicht.
Und wenn mir keiner sagen kann, wie diese spezifiziert ist, dann läßt sich auch keine Aussage über die Lebensdauer tätigen, oder sehe ich das Deiner Meinung so falsch ?
Wenn ja, sag mit doch bitte einfach warum.
Originally posted by Labberlippe
nVIDIA soll endlich Dampf geben und das in den Griff bekommen oder die FX5800 Ultra einstampfen.
Die Karte ist und bleibt eine pure Frechheit an den Endverbraucher.
Ich sehe es schon kommen, die Hersteller werden in Zukunft HW auf den Markt werfen welche als Leistungsieger gewertet werden, welche nur 5min stabil laufen.
Schade, bis dato war Dein Post fast vernünftig...
Jetzt ist es nur ein weiterer (sinnloser) flame.
Die FX5800(ultra) ist ein gutes Produkt, welches es in Punkto Leistungsfähigkeit, sehr gut mit ATI's derzeitiger Hardware aufnehmen kann. Liegt Leistungsmäßig in etwa auf gleichem Nivau, ist unter AF besser, unter AA schlechter. Hat dafür die leicht besseren Treiber, dafür aber einen oft unerträglichen Lüfter.
Wo ist jetzt das Problem ?
Warum soll dies ein 'untragbares' Produkt sein ?
Wenn ein Käufer um die Negativpunkte dieser Karte weiß und diese dann trotzdem Kauft (oder benutzt), wird er schon wissen, was er tut. Persönlich würde ich mir das Kühlmonster nicht zulegen (ganz egal, was es kostet), aber ich auch jemand bin, der eine NV20 einer R300 oder einem NV25 vorzieht. Aber das ist ein anderes Thema...
Keine Ahnung, was Du nun wieder hast...
Razor
Originally posted by Razor
Und wenn der Chip bis 125° spezifiziert ist, dann interssieren ihn die 105° nicht wirklich...
Nein. Ich quote Demirugs Posting nochmal für dich:
Originally posted by Demirug
Wenn die FX Chips eine Millitärzulassung haben sind 105°C nicht wirklich viel. Millitärchips werden bei 125°C spezifiziert.
Was natürlich trotzdem interesant währe ist die MTTF und bei welcher Temperature diese spezifiziert ist.
Wir wollen das mal ganz genau auseinandernehmen: Der erste Satz fängt mit wenn an -> das will uns sagen, dass wenn der NV30 eine Militärzulassung hätte, dann könnte er auch bei 125°C noch funktionieren. Im zweiten Satz fragt er indirekt nach der MTBF und bei welcher Temperatur diese spezifiert/gültig sind. Was sich daraus ableiten lässt ist klar: die Höhe der MTBF steht in Relation zum spezifizierten Betriebstemperaturbereich. Frage an Razor: warum denkst du ist das so?
Originally posted by Razor
Wie auch Demirug schon sagte, ist das was für Statistiker...
Ich frage lediglich nach Fakten !
Ich quote hier zuerst einmal Demirug:
Originally posted by Demirug
jaja das gute alte EM-Problem. Eine hübsche Sache für Statistiker. Leider kann man auf diesem Gebiet nur mit Wahrscheinlichkeiten arbeiten.
und dann mich selbst:
Originally posted by Ikon
Es wäre hierzu bestenfalls eine Schätzung anhand von statistischen Daten möglich. Das ändert aber nichts am Faktum.
Zum dritten mal: das Faktum ist definitiv, aber das Ausmaß der Beeinflussung (der Lebensdauer) lässt sich nur statistisch schätzen.
Originally posted by Razor
Für CPU's wäre eine solche Temperatur schlicht tödlich, für eine (nVidia-) GPU ist es das offensichtlich nicht.
Und wenn mir keiner sagen kann, wie diese spezifiziert ist, dann läßt sich auch keine Aussage über die Lebensdauer tätigen, oder sehe ich das Deiner Meinung so falsch ?
Wenn ja, sag mit doch bitte einfach warum.
Aber gerne. Es ist für diesen Fall irrelevant für welche Temperatur der Chip spezifiziert ist, da auch NV die Naturgesetze nicht auf den Kopf stellen kann. Ein NV30, der z.B. wassergekühlt 50°C (Wert aus der Luft gegriffen) nicht überschreitet, "lebt" länger als ein NV30, der in einem PC in der Sahara arbeitet und ständig mit Temperaturen von Die-Temperaturen von 60-100°C zu kämpfen hat.
StefanV
2003-04-21, 11:05:54
Originally posted by Ikon
Aber gerne. Es ist für diesen Fall irrelevant für welche Temperatur der Chip spezifiziert ist, da auch NV die Naturgesetze nicht auf den Kopf stellen kann. Ein NV30, der z.B. wassergekühlt 50°C (Wert aus der Luft gegriffen) nicht überschreitet, "lebt" länger als ein NV30, der in einem PC in der Sahara arbeitet und ständig mit Temperaturen von Die-Temperaturen von 60-100°C zu kämpfen hat.
Aber nein, Ikon, nVidia ist dazu im Stande die Gesetze der Physik zu brechen, versteh das doch endlich!!
Demirug
2003-04-21, 11:07:07
Originally posted by Ikon
Aber gerne. Es ist für diesen Fall irrelevant für welche Temperatur der Chip spezifiziert ist, da auch NV die Naturgesetze nicht auf den Kopf stellen kann. Ein NV30, der z.B. wassergekühlt 50°C (Wert aus der Luft gegriffen) nicht überschreitet, "lebt" länger als ein NV30, der in einem PC in der Sahara arbeitet und ständig mit Temperaturen von Die-Temperaturen von 60-100°C zu kämpfen hat.
Aufgrund von statischer Wahrscheinlichkeit. Wenn es dumm läuft kann der bei 50°C auch vor dem in der Sahara kaput gehen. Zudem gibt es ja noch mehr dinge als EM die einen Chip langsam beim Betrieb kaputt machen.
Da die Zwangskühlung bei gemessenen 105°C einsetzt ist fast davon auszugehen das der Chip in diesem Bereich irgendeine spezfikationsgrenze hat.
PS: Wenn ich mich recht erinnere schreibt die millitär Spec 125°C Umgebungstemperatur vor die Kerntemperatur ist dabei egal.
Originally posted by Demirug
Aufgrund von statischer Wahrscheinlichkeit. Wenn es dumm läuft kann der bei 50°C auch vor dem in der Sahara kaput gehen. Zudem gibt es ja noch mehr dinge als EM die einen Chip langsam beim Betrieb kaputt machen.
Ist natürlich rein theorethisch, trotzdem könnte ich mir einen Fuß ausreißen weil ich nicht "unter ansonsten gleichen Voraussetungen" geschrieben habe.
Originally posted by Demirug
PS: Wenn ich mich recht erinnere schreibt die millitär Spec 125°C Umgebungstemperatur vor die Kerntemperatur ist dabei egal.
*autsch* machen die bloß für perverse Sachen mit den Chips ???
Labberlippe
2003-04-21, 11:34:52
Originally posted by Xmas
Werden sie das? Dieser Thread und noch ein paar andere zu diesem Thema zeigen doch das Gegenteil. Außerdem ist es ja offensichtlich nicht so, dass die Karte abraucht.
Von den Folgen her sehe ich das Problem als "gering" an (und von der Behebbarkeit erst recht): bei ohnehin wenigen FX5800-Besitzern, von denen noch weniger einen 3D-Bildschirmschoner nutzen, wird die Lebensdauer des Chips etwas verringert.
[/size]
Wo läuft die FX5800/Ultra nicht stabil?
Das "laut nv jüngern hier" verstehe ich nicht, was meinst du damit? [/SIZE]
Sag mal hast Du mein Posting überhaupt gelesen. ???
Anscheinend nicht, denn dann hättest Du es nicht übersehen das ich schrieb das die GPU nicht abraucht da diese sich selbt runterschaltet.
Als gering sehe ich dieses Problem nicht, da die Karte auf 100Grad hochheizt, das ist der erste Grafikchip der solche Werte gefahrlos hinnehmen würde.
Ich persönlich bezweifle das das Material auf Dauer ohne Schaden solche temperaturen aushält.
Hoffentlich bringt nVIDIA schleunigst einen neuen Treiber, der dieses Problem behebt.
Wo läuft die FX nicht stabil. ???
Auch hier wäre lesen angbebracht, denn ich verwiess auf Hardtecs4u wo die Leadtek Karte massig Probleme ohne FX Flow hatte.
Freilich ist die Anzahl der FX5800Ultra User gering, nur was können die dafür...
Laut nV Jüngern.
So wie es aussieht Dich und Razor, welche nichteinmal im Ansatz versuchen die Arguemente zu nachvollziehen und immer Postings in zerissenen Posten und das ganze Posting weglassen.
Gruss Labberlippe
Labberlippe
2003-04-21, 11:37:46
Originally posted by Razor
Selbst drosseln tut sich die Karte nicht bei 105°, sondern bei 145° (wenn ich recht entsinne).
Bei 105° schaltet sich 'nur' in jedem Fall der Lüfter zu, ganz egal, was die Karte, bzw. der Treiber 'denkt'.
(i.e. 2D = Lüfter aus, 3D = Lüfter an, >= 105° Lüfter an, >= 145° Takt runter)
Und wenn der Chip bis 125° spezifiziert ist, dann interssieren ihn die 105° nicht wirklich...
Was für ein quatsch, sorry...
Du hast den Artikel bei HT4U offensichtlich nicht zur Kenntnis genommen, oder ?
Hier wird einfach nur wieder was hochgepuscht...
Zeig mir bitte eine Karte, oder einen Reviewer oder einen Nutzer, dessen Karte abgeraucht ist.
Wie auch Demirug schon sagte, ist das was für Statistiker...
Ich frage lediglich nach Fakten !
Für CPU's wäre eine solche Temperatur schlicht tödlich, für eine (nVidia-) GPU ist es das offensichtlich nicht.
Und wenn mir keiner sagen kann, wie diese spezifiziert ist, dann läßt sich auch keine Aussage über die Lebensdauer tätigen, oder sehe ich das Deiner Meinung so falsch ?
Wenn ja, sag mit doch bitte einfach warum.
Schade, bis dato war Dein Post fast vernünftig...
Jetzt ist es nur ein weiterer (sinnloser) flame.
Die FX5800(ultra) ist ein gutes Produkt, welches es in Punkto Leistungsfähigkeit, sehr gut mit ATI's derzeitiger Hardware aufnehmen kann. Liegt Leistungsmäßig in etwa auf gleichem Nivau, ist unter AF besser, unter AA schlechter. Hat dafür die leicht besseren Treiber, dafür aber einen oft unerträglichen Lüfter.
Wo ist jetzt das Problem ?
Warum soll dies ein 'untragbares' Produkt sein ?
Wenn ein Käufer um die Negativpunkte dieser Karte weiß und diese dann trotzdem Kauft (oder benutzt), wird er schon wissen, was er tut. Persönlich würde ich mir das Kühlmonster nicht zulegen (ganz egal, was es kostet), aber ich auch jemand bin, der eine NV20 einer R300 oder einem NV25 vorzieht. Aber das ist ein anderes Thema...
Keine Ahnung, was Du nun wieder hast...
Razor
Lese mal mein Posting an X-Mas.
Zum letzten Kritikpunkt von Dir.
Stimmt ich korrigere es.
ICH finde das die Karte mit solchen Aktionen unzumutbar ist.
Gruss Labberlippe
Andre
2003-04-21, 11:48:59
Originally posted by Stefan Payne
Aber nein, Ikon, nVidia ist dazu im Stande die Gesetze der Physik zu brechen, versteh das doch endlich!!
Hast du was Qualifiziertes beizutragen oder nur deinen üblichen Spam?
Quasar
2003-04-21, 11:56:00
Tjo, wenn ich mich recht entsinne, gab es mal einen Treiber, wo man die Drosselungstemperatur nach einem kleinen Reg-Eintrag selbst einstellen konnte.
Und wenn man diesen Eintrag gesetzt hatte, wurde auch die default-Drosseltemperatur im Treiber angezeigt.
Diese lag, IIRC, bei enormen 143° (Celsius, Fahrenheit wäre ja nicht wirklich warm...).
Und wenn nV selber eine Sicherheitsgrenze von 143° angibt, ab der der Chip zwecks Vermeidung von Überhitzung zurückgefahren wird, sollte alles darunter noch einen sicheren Betrieb erlauben.
Man bedenke, es handelt sich hier um die Kern- und nicht die Temperatur an der Kühleroberfläche.
BTW, Leo hat in seinem Review auch schon erwähnt, dass der Treiber beim 3D-Bildschirmschoner nur kurz anläuft: http://www.3dcenter.de/artikel/r9500+9700_vs_gffx5800/zb_lautstaerke_b.php
Razor
2003-04-21, 11:59:39
Originally posted by Labberlippe
Sag mal hast Du mein Posting überhaupt gelesen. ???
Anscheinend nicht, denn dann hättest Du es nicht übersehen das ich schrieb das die GPU nicht abraucht da diese sich selbt runterschaltet.
Ich weiß, das ist nicht an mich gerichtet...
Trotzdem möchte ich nochmals wiederholen:
- bei 105° zwangsweises Zuschalten des Lüfters
- bei 145° (AFAIK) heruntertakten der GPU
(ok, Korrektur: 143°... hatte Zahl nicht mehr präzise im Kopf, thx Quasar)
Letzteres ist wohl eine Schutzmaßnahme gegen die Möglichekit eines Lüfterausfalls...
Originally posted by Labberlippe
Als gering sehe ich dieses Problem nicht, da die Karte auf 100Grad hochheizt, das ist der erste Grafikchip der solche Werte gefahrlos hinnehmen würde.
Offensichtlich hat HT4U das mehrmals ausprobiert und die Karte lebt noch immer...
Wo ist Dein Problem ?
Originally posted by Labberlippe
Ich persönlich bezweifle das das Material auf Dauer ohne Schaden solche temperaturen aushält.
Hoffentlich bringt nVIDIA schleunigst einen neuen Treiber, der dieses Problem behebt.
Das Du das persönlich bezweifelst glaub' ich Dir gerne...
Würde der Schmärtz das auch so schreiben, würde ich ja gar nichts dagegen sagen.
Es aber so restriktiv hinzustellen, als ob er die Weisheit mit Löffeln gefressen hätte, dabei aber nicht den blassen schimmer einer Ahnung hat, ist schon hart.
Auch bei Dir hörte sich das ähnlich restriktiv an, welches Du nun aber korrekter weise korrigiertest.
Und warum sollte nVidia das 'schleunigst' korrigieren, nur weil Du persönlich der Meinung bist, dass hier Handlungsbedarf besteht ? Und das, wo Du Dir doch 'eh nie eine solche Karte zulegen würdest...
Originally posted by Labberlippe
Wo läuft die FX nicht stabil. ???
Auch hier wäre lesen angbebracht, denn ich verwiess auf Hardtecs4u wo die Leadtek Karte massig Probleme ohne FX Flow hatte.
Nun ja, nVidia hat es den Herstellern überlassen, eine eigene Kühlung zu bauen/benutzen.
Das mit Leadtek fand ich auch ganz interessant...
Nichts desto trotz würd' ich mir KEINE 5800'er zulegen !
(ganz egal mit was für einer Kühlung)
Originally posted by Labberlippe
Zum letzten Kritikpunkt von Dir.
Stimmt ich korrigere es.
ICH finde das die Karte mit solchen Aktionen unzumutbar ist.
OK, das akzeptiere ich (natürlich ;-)...
Razor
Razor
2003-04-21, 12:05:43
Originally posted by Ikon
Zum dritten mal: das Faktum ist definitiv, aber das Ausmaß der Beeinflussung (der Lebensdauer) lässt sich nur statistisch schätzen.
Welches 'Faktum' ?
???
Originally posted by Ikon
Aber gerne. Es ist für diesen Fall irrelevant für welche Temperatur der Chip spezifiziert ist, da auch NV die Naturgesetze nicht auf den Kopf stellen kann. Ein NV30, der z.B. wassergekühlt 50°C (Wert aus der Luft gegriffen) nicht überschreitet, "lebt" länger als ein NV30, der in einem PC in der Sahara arbeitet und ständig mit Temperaturen von Die-Temperaturen von 60-100°C zu kämpfen hat.
Mag ja alles sein, Ikon...
Was ich vermisse (zum x'ten mal !):
Wie lange 'lebt' ein NV30 mit diesem Prob' ?
Wie lange 'lebt' ein NV30 ohne dieses Prob' ?
War das jetzt deutlich ?
???
Mir geht es um eine klare Einschätzung dieses 'Problems', wenn es eines ist !
Du wirst mir doch sicher zustimmen, dass eine Lebensdauer von 10 Jahren reduziert auf 9 Jahre kein wirkliches Problem darstellt (bei den wenigen Leutz, die es trifft). Eine Reduzierung auf nur 5 Tage aber schon...
Beantworte die beiden Fragen und ich höre auf...
(und bitte keine Schätzungen, denn offensichtlich verträgt dieser Chip weit mehr, als alle bisherigen GPU's !)
Razor
StefanV
2003-04-21, 12:10:42
/me fragt sich, ob Razor das gleiche Schreiben würde, wenns ATI oder SIS passiert wäre...
StefanV
2003-04-21, 12:12:30
Originally posted by Razor
Wie lange 'lebt' ein NV30 mit diesem Prob' ?
Wie lange 'lebt' ein NV30 ohne dieses Prob' ?
Razor
Ausgehend von 10 Jahren bei 75°C Kerntemperatur:
5 Jahre bei 85°C
2,5 Jahre bei 95°C
1,25 Jahre bei 105°C
Ui, toll, eine 500€ Karte, die gerademal ein Jahr und 3Monate hält, gut gemacht, NV!!
Razor
2003-04-21, 12:12:51
Originally posted by Stefan Payne
/me fragt sich, ob Razor das gleiche Schreiben würde, wenns ATI oder SIS passiert wäre...
/me fragt sich, was Schmärz damit wieder sagen will...
Oder hast Du schlicht nichts vernünftiges zum Thema beizutragen ?
???
Razor
Quasar
2003-04-21, 12:13:49
Da offenbar Razor sich auch an einen Wert im Bereich von 140°C zu erinnern scheint, nochmal die Frage: Was erweckt den Eindruck, daß der nV30 nicht für so hohe Temperaturen spezifiziert ist?
Razor
2003-04-21, 12:13:55
Originally posted by Stefan Payne
Ausgehend von 10 Jahren bei 75°C Kerntemperatur:
5 Jahre bei 85°C
2,5 Jahre bei 95°C
1,25 Jahre bei 105°C
Quelle ?
Oder hast Du Dir das - wie immer - ausgedacht ?
Razor
P.S.: Warum nicht 10 Jahre bei 100° und 20 Jahre bei 50° ?
???
StefanV
2003-04-21, 12:14:02
@Rasierklinge
Bitte unterlass diese 'Schmärtz' Postings!!!
Die Empfinde ich als Beleidigung!!
StefanV
2003-04-21, 12:15:28
Originally posted by Razor
Quelle ?
Oder hast Du Dir das - wie immer - ausgedacht ?
Razor
P.S.: Warum nicht 10 Jahre bei 100° und 20 Jahre bei 50° ?
???
1. du wolltest doch wissen, wie lange das Bauteil hält, ich habs oben gepostet.
Quelle -> Intel und die Physik, +10°C -> um die hälfte verringerte Lebensdauer.
2. Siehe 1.
Wie willst du das mit der Physik unter einen Hut bringen ??
LovesuckZ
2003-04-21, 12:16:57
Originally posted by Stefan Payne
@Rasierklinge
Bitte unterlass diese 'Schmärtz' Postings!!!
Die Empfinde ich als Beleidigung!!
OT:
Ich errinere dich dadran, dass du mich "suckie" nennst... :|
Razor
2003-04-21, 12:17:24
Originally posted by Stefan Payne
@Rasierklinge
Bitte unterlass diese 'Schmärtz' Postings!!!
Die Empfinde ich als Beleidigung!!
Dann unterlaß Du diesen Müll, den Du hier von Dir gibst !
Denn das bereitet mir schmärtzen...
:D
Kannst Du mir vielleicht sagen was das hier sollte:
"Ui, toll, eine 500€ Karte, die gerademal ein Jahr und 3Monate hält, gut gemacht, NV!!"
Und das ausgehend von einer Vermutung, die durch NICHTS untermauert wird ?
Du spammst hier nur rum und solange Du das tust, hommen von mir hier auch weiterhin "Schmärtz"-Postings !
Razor
Quasar
2003-04-21, 12:18:08
Originally posted by Stefan Payne
1. du wolltest doch wissen, wie lange das Bauteil hält, ich habs oben gepostet.
Quelle -> Intel und die Physik, +10°C -> um die hälfte verringerte Lebensdauer.
2. Siehe 1.
Wie willst du das mit der Physik unter einen Hut bringen ??
ad1) Damit willst du sagen, daß diese Werte universell für jeden Halbleiter gelten, der jemals hergestellt wurde und hergestellt werden wird???
Razor
2003-04-21, 12:18:47
Originally posted by Stefan Payne
1. du wolltest doch wissen, wie lange das Bauteil hält, ich habs oben gepostet.
Quelle -> Intel und die Physik, +10°C -> um die hälfte verringerte Lebensdauer.
2. Siehe 1.
Wie willst du das mit der Physik unter einen Hut bringen ??
1a) Intel-CPU's halten 5 Jahre bei 85° Kerntemperatur ?
1b) das gilt definitiv auch für den NV30 ?
2) sehr gut, danke !
:D
Razor
Punkt 1a) geändert...
Originally posted by Razor
Welches 'Faktum' ?
???
Dass die Lebensdauer eines Chips indirekt proportional zu seiner durchschnittlichen Betriebstemperatur ist ;D -> dass sich durch die relativ höhere Betriebstemperatur die Lebensdauer der Karte/des Chips verringert.
Originally posted by Razor
Mag ja alles sein, Ikon...
Was ich vermisse (zum x'ten mal !):
Wie lange 'lebt' ein NV30 mit diesem Prob' ?
Wie lange 'lebt' ein NV30 ohne dieses Prob' ?
War das jetzt deutlich ?
???
Ja, durchaus, genau wie die verschiedenen Antworten. Du wirst von niemandem absolute Werte bekommen, da 1) unbekannt ist wie lange der Chip im Schnitt überhaupt funktioniert
2) ich bezweifle dass eine Berechnung der relativen "Verkürzung der Lebensdauer", wenn überhaupt möglich, wahrscheinlich recht praxisfern wäre, da wie Demirug schon sagte, noch eine ganze Menge weiterer Effekte die Lebensdauer eines Chips beeinflussen.
Originally posted by Razor
Mir geht es um eine klare Einschätzung dieses 'Problems', wenn es eines ist !
Du wirst mir doch sicher zustimmen, dass eine Lebensdauer von 10 Jahren reduziert auf 9 Jahre kein wirkliches Problem darstellt. Eine Reduzierung auf nur 5 Tage aber schon...
(und bitte keine Schätzungen, denn offensichtlich verträgt dieser Chip weit mehr, als alle bisherigen GPU's !)
Wie gesagt, absolute Werte wirst du von niemandem bekommen, s.o.
(es geht mir hier nicht um eine Diffamierung der GFFX, sondern nur darum klarzustellen, dass dieser Bug nicht keine negative Wirkung haben kann)
StefanV
2003-04-21, 12:57:02
Originally posted by Quasar
ad1) Damit willst du sagen, daß diese Werte universell für jeden Halbleiter gelten, der jemals hergestellt wurde und hergestellt werden wird???
Nein, gilt nur für Silizium Basiertes Material.
Demirug
2003-04-21, 12:59:55
So ich habe mich jetzt mal Informiert. TSMC testet die MTBF unter anderem bei 150°C Ambient Temp (Umgebungstemperatur). Die üblichen Processes erreichen dabei Werte die so um 500000 Stunden oder besser liegen. Dier Wert enthält aber auch versagen aufgrund von anderen Dingen wie zum Beispiel Termische Brüche wenn man einen Chip ständig abkühlt (-65°C) und aufheitzt (150°C)
Originally posted by Labberlippe
Wo läuft die FX nicht stabil. ???
Auch hier wäre lesen angbebracht, denn ich verwiess auf Hardtecs4u wo die Leadtek Karte massig Probleme ohne FX Flow hatte.
Nicht ganz korrekt. Die Karte lief nicht stabil, weil es ein gedämmtes Case war. OK, im Sommer erreicht man solche Temps auch. Aber wie schon beschrieben reicht dann schon das entfernen des Slotblechs für einen stabilen Betrieb. Und das interessanteste hierzu ist wohl noch, dass der Chip allerhöchstwahrscheinlich gar nicht für die Abstürze verwantwortlich war, sondern der Speicher! Dieser wird ebenfalls sau heiß, sowas hab ich bei Speicher noch nie gesehen.
Diese Probleme wird man aber eventuell durch ein BIOS Update beheben, welches die Lüfter schneller drehen lässt. Und das FlowFX System arbeitet 100% stabil.
Und nochmal zu den Kernverlangsamungstemperaturen:
Mit 43.45 Treiber wird folgendes angegeben:
GFFX 5800 Ultra: 140°C
GFFX 5600 Ultra: 134°C
Und zur Haltbarkeit des Chips stimme den Werten von Stefan Payne nicht zu, da dies Werte von Intel und deren Prozessoren sind und diese man meiner Meinung nach nicht einfach so auf GPUs übertragen kann. Nicht umsonst liegt die Temperatur für die Kernverlangsamung bei 140°C.
StefanV
2003-04-21, 13:47:51
Originally posted by Mond
Und zur Haltbarkeit des Chips stimme den Werten von Stefan Payne nicht zu, da dies Werte von Intel und deren Prozessoren sind und diese man meiner Meinung nach nicht einfach so auf GPUs übertragen kann. Nicht umsonst liegt die Temperatur für die Kernverlangsamung bei 140°C.
Aber für Intel CPUs stimmen sie, oder ??
Hab halt die Daten genommen, die ich kannte :)
Denke ich mal, dass die stimmen, so in etwa jedenfalls, warum auch nicht. Ich hab nVIDIA auch mal ne Mail geschrieben, wie hoch denn die maximale Core Temp des NV30 Ultra sein darf, bislang allerdings noch keine Antwort. :-(
Labberlippe
2003-04-21, 14:06:26
Ich weiß, das ist nicht an mich gerichtet...
Trotzdem möchte ich nochmals wiederholen:
- bei 105° zwangsweises Zuschalten des Lüfters
- bei 145° (AFAIK) heruntertakten der GPU
(ok, Korrektur: 143°... hatte Zahl nicht mehr präzise im Kopf, thx Quasar)
Letzteres ist wohl eine Schutzmaßnahme gegen die Möglichekit eines Lüfterausfalls...
Naja keine Frage, ich finde es sogar gut das die GPU runtertaktet um keinen Schaden zunehmen.
Keine Frage das auch hier die anderen Hersteller dieses integrieren sollte.
Dennoch sehe ich leider es so das die FX 5800Ultra eine verdammt heise Karte ist.
Was sich unter umständen auch auf das System auswirken kann.
Die meisten verwenden leider einen Midi Tower und die Karte strahlt auch auf der Rückseite eine hohe abwärme ab.
Ein XP2400+ und div andere Teile im System sind auch nicht gerade die kühlsten.
Hier wäre es schon fatal die Karte ohne zusätzliche Lüftermasnahme in einen solche "kleinen" Gehäuse lauf zu lassen.
Freilich ist die FX5800Ultra quasi nur für Freaks gedacht die dementsprechende Vorkerhrungen getroffen haben.
Nur leider gibt es dennoch genug Kunden die sich die Karte in System knallen und dann nicht nachvollziehen können warum das System hängt..
Offensichtlich hat HT4U das mehrmals ausprobiert und die Karte lebt noch immer...
Wo ist Dein Problem ?
Wie schon gesagt, ich sagte doch das die GPU nicht abraucht.
Nur ein Hänger kann sich das System schon einfangen und seis nur wenn die GPU die Taktraten auf ein minimum beschränkt.
Das Du das persönlich bezweifelst glaub' ich Dir gerne...
Würde der Schmärtz das auch so schreiben, würde ich ja gar nichts dagegen sagen.
Es aber so restriktiv hinzustellen, als ob er die Weisheit mit Löffeln gefressen hätte, dabei aber nicht den blassen schimmer einer Ahnung hat, ist schon hart.
Ich bin nicht Stefan Payne ich räume ja wohl div. Argumentationen ein.
Wie sich das genau auf die GPU auswirkt kann definitv keiner von uns sagen.
Fakt ist aber das meineiner schon lange mit der Materie PC beschäftigt und schon diese überdimensionierte Wärmeentwickelung mit einen "Achtung" quittieren muss.
Ich kann mir persönlich nicht gesagt vorstellen, das nVIDIA der einzige Hersteller in End Consumer Bereich ist, der in der Lage ist eine GPU mit herkömmlicher Produktion weit über 100Grad zu spezifizerien kann.
Auch bei Dir hörte sich das ähnlich restriktiv an, welches Du nun aber korrekter weise korrigiertest.
Und warum sollte nVidia das 'schleunigst' korrigieren, nur weil Du persönlich der Meinung bist, dass hier Handlungsbedarf besteht ? Und das, wo Du Dir doch 'eh nie eine solche Karte zulegen würdest...
Ich versuche immer objektiv zu schreiben, freilich ist meinereiner der gerne ATi nimmt.
Ich habe andere Prioritäten.
Ich bin von nVIDIA wieder entäuscht worden.
Gerade die GeForce4 Serie hat es mir angetan und meineiner wollte auf nVIDIA umschwenken.
Nur sehe ich keinen Vorteil mehr der nVIDIA Karten gegenüber denen von ATi.
Die kleine FX Serie wäre sicherlich eine Alternative, nur solange mir nichts genaueres über die Funktionen im DVD und Multimontoring Bereich bei dieser Serie bekannt ist, werde ich weiter auf der ATi Schiene bleiben.
edit: Teufel habe ich wieder eine Grammatik heute, werde mir mal einen Kaffee reinpfeifen... :D
Gruss Labberlippe
Labberlippe
2003-04-21, 14:14:43
Originally posted by Demirug
So ich habe mich jetzt mal Informiert. TSMC testet die MTBF unter anderem bei 150°C Ambient Temp (Umgebungstemperatur). Die üblichen Processes erreichen dabei Werte die so um 500000 Stunden oder besser liegen. Dier Wert enthält aber auch versagen aufgrund von anderen Dingen wie zum Beispiel Termische Brüche wenn man einen Chip ständig abkühlt (-65°C) und aufheitzt (150°C)
Also knappe 57 Jahre :D
Somit sollte also das kein problem darstellen.
Allerdings räume ich dennoch bedenken ein, wie eine FX5800Ultra das System aufheizen kann.
Wobei bei diesen Temperaturen es sicherlich zu falschen Schaltungen im Chip kommen kann. oder täusche ich mich.?
Ist hier in diesen Bereich jemanden etwas bekannt.
Gruss Labberlippe
Labberlippe
2003-04-21, 14:16:21
Originally posted by Mond
Nicht ganz korrekt. Die Karte lief nicht stabil, weil es ein gedämmtes Case war. OK, im Sommer erreicht man solche Temps auch. Aber wie schon beschrieben reicht dann schon das entfernen des Slotblechs für einen stabilen Betrieb. Und das interessanteste hierzu ist wohl noch, dass der Chip allerhöchstwahrscheinlich gar nicht für die Abstürze verwantwortlich war, sondern der Speicher! Dieser wird ebenfalls sau heiß, sowas hab ich bei Speicher noch nie gesehen.
Diese Probleme wird man aber eventuell durch ein BIOS Update beheben, welches die Lüfter schneller drehen lässt. Und das FlowFX System arbeitet 100% stabil.
ok das lasse ich mal so stehe, wobei ich erwähne sollte das ich die Karte als ein ganzes betrachte.
Kurz der Speicher sollte auch dementsprechend dafür ausgelegt sein.
Gruss Labberlippe
Labberlippe
2003-04-21, 14:17:32
Originally posted by Mond
Und nochmal zu den Kernverlangsamungstemperaturen:
Mit 43.45 Treiber wird folgendes angegeben:
GFFX 5800 Ultra: 140°C
GFFX 5600 Ultra: 134°C
Und zur Haltbarkeit des Chips stimme den Werten von Stefan Payne nicht zu, da dies Werte von Intel und deren Prozessoren sind und diese man meiner Meinung nach nicht einfach so auf GPUs übertragen kann. Nicht umsonst liegt die Temperatur für die Kernverlangsamung bei 140°C.
Gibt nVIDIA oder TMSC die Kernverlangsamung offiziell bei 140 Grad an. ???
Dann hätte sich meine obige Frage erledigt.
Gruss Labberlippe
Originally posted by Labberlippe
Gibt nVIDIA oder TMSC die Kernverlangsamung offiziell bei 140 Grad an. ???
Dann hätte sich meine obige Frage erledigt.
Gruss Labberlippe
Es steht so im nVIDIA Treiber im Temperaturpanel. Mehr weiß ich nicht.
Originally posted by Labberlippe
ok das lasse ich mal so stehe, wobei ich erwähne sollte das ich die Karte als ein ganzes betrachte.
Kurz der Speicher sollte auch dementsprechend dafür ausgelegt sein.
Gruss Labberlippe
Ist schon richtig. Aber die Leadtek hat ja auch eine eigene Konstruktion ohne FlowFX. Da ist nVIDIA an eventuellen Systeminstabilitäten nicht schuld.
Demirug
2003-04-21, 14:44:49
Originally posted by Labberlippe
Also knappe 57 Jahre :D
Somit sollte also das kein problem darstellen.
Allerdings räume ich dennoch bedenken ein, wie eine FX5800Ultra das System aufheizen kann.
Wobei bei diesen Temperaturen es sicherlich zu falschen Schaltungen im Chip kommen kann. oder täusche ich mich.?
Ist hier in diesen Bereich jemanden etwas bekannt.
Gruss Labberlippe
Falsche Schaltungen in dem Sinn das die Transitoren nicht mehr das machen was sie sollen wird es keine geben. Allerdings könnten sich aufgrund der hohen Temperaturen die Signallaufzeit erhöhen was dann dazu führen kann das eine Einheit innerhalb eines Taktzykluses nicht mehr komplett durchlaufen werden kann. Das würde dann zu fehlern führen.
Originally posted by Stefan Payne
Ausgehend von 10 Jahren bei 75°C Kerntemperatur:
5 Jahre bei 85°C
2,5 Jahre bei 95°C
1,25 Jahre bei 105°C
Ui, toll, eine 500€ Karte, die gerademal ein Jahr und 3Monate hält, gut gemacht, NV!!
Wunderbar, ich lasse auch 15 Monate den Bildschirmschoner laufen...
Originally posted by Labberlippe
Sag mal hast Du mein Posting überhaupt gelesen. ???
Anscheinend nicht, denn dann hättest Du es nicht übersehen das ich schrieb das die GPU nicht abraucht da diese sich selbt runterschaltet. [1]
Als gering sehe ich dieses Problem nicht, da die Karte auf 100Grad hochheizt, das ist der erste Grafikchip der solche Werte gefahrlos hinnehmen würde. [2]
Ich persönlich bezweifle das das Material auf Dauer ohne Schaden solche temperaturen aushält.
Hoffentlich bringt nVIDIA schleunigst einen neuen Treiber, der dieses Problem behebt. [3]
Wo läuft die FX nicht stabil. ???
Auch hier wäre lesen angbebracht, denn ich verwiess auf Hardtecs4u wo die Leadtek Karte massig Probleme ohne FX Flow hatte. [4]
Freilich ist die Anzahl der FX5800Ultra User gering, nur was können die dafür...
Laut nV Jüngern.
So wie es aussieht Dich und Razor, welche nichteinmal im Ansatz versuchen die Arguemente zu nachvollziehen und immer Postings in zerissenen Posten und das ganze Posting weglassen. [5]
Damit diesmal kein Grund zur Klage über zerrissene Quotes herrscht, habe ich Nummern eingefügt damit klar ist auf was ich mich beziehe. Wenn es um mehrere Diskussionspunkte geht, kann ich schließlich nicht auf das Posting als ganzes antworten.
Zu 1: Sicher habe ich dein Posting gelesen. Ich wollte nur noch einmal betonen dass es keine direkten schwerwiegenden Folgen des Problems gibt. Du beurteilst das Problem als "nicht ohne". Das halte ich für übertrieben. Aber dazu auch:
Zu 2: Na und? Dann ist es eben der erste. Der Chip geht kurzzeitig auf 105°C hoch (wenn die Messung denn korrekt ist). Dann schaltet der Lüfter ein und kühlt wieder runter. Also keine schwerwiegenden Folgen.
Zudem ist das Problem selten, weil es nur wenige FX5800 gibt, und noch weniger User jener, die einen 3D-Screensaver verwenden.
Und es wird wohl bald behoben sein, da NVidia mittlerweile davon wissen dürfte.
Da sehe ich einfach keinen Grund aus einer Mücke einen Elefanten zu machen. Ich werde mir sicher keine FX5800 kaufen. Aber das ist wirklich das geringste Problem.
Zu 3: Das sehe ich auch so. Ein neuer Treiber sollte das Problem auf jeden Fall angehen. Aber ich sehe hier die Dauerbelastung nicht gegeben.
Zu 4: Dazu hat Martin schon alles gesagt.
Zu 5: Dann hoffe ich dass dir das mit den Nummern besser gefällt. Ich kann auf dein Posting nun mal nicht als ganzes antworten.
Und ich bin auch sicher kein NV Jünger. Ich bin selbst von den aktuellen FX-Karten enttäuscht und würde mir keine davon kaufen.
Ich wollte mit meiner Frage nur wissen, auf welchen Teil des Satzes sich das "laut nv jüngern" im folgenden Satz bezieht. Mir erschließt sich der Sinn einfach nicht:
Originally posted by Labberlippe Schmerzlich ist es dennoch das nVIDIA hier ein Taktungsmonster (welches nicht einmal annähernd stabil rennt) ins Rennen wirft um gegen eine in 0.15Mikron gefertigte ATi Karte (laut nv jüngern hier) anzutreten.
Razor
2003-04-21, 20:04:20
Originally posted by Ikon
Dass die Lebensdauer eines Chips indirekt proportional zu seiner durchschnittlichen Betriebstemperatur ist ;D -> dass sich durch die relativ höhere Betriebstemperatur die Lebensdauer der Karte/des Chips verringert.
Schön und gut, nur fehlte die dafür zugrunde liegende Ausgangsbasis...
(die wir dank Demirug ja jetzt auch haben ;-)
Originally posted by Ikon
Ja, durchaus, genau wie die verschiedenen Antworten. Du wirst von niemandem absolute Werte bekommen, da 1) unbekannt ist wie lange der Chip im Schnitt überhaupt funktioniert
2) ich bezweifle dass eine Berechnung der relativen "Verkürzung der Lebensdauer", wenn überhaupt möglich, wahrscheinlich recht praxisfern wäre, da wie Demirug schon sagte, noch eine ganze Menge weiterer Effekte die Lebensdauer eines Chips beeinflussen.
Deswegen das von Payne verlautbarte Zeug ja auch Dünnsinn ist.
Und leider warf ich Dich mit ihm in einen Topf...
Originally posted by Ikon
Wie gesagt, absolute Werte wirst du von niemandem bekommen, s.o.
Na ja, ein paar detailliertere Info's haben wir ja jetzt.
Nichts anderes hatte mich interessiert und das Ergbnis ist auch in etwa so, wie ich es mir vorstellte.
Originally posted by Ikon
(es geht mir hier nicht um eine Diffamierung der GFFX, sondern nur darum klarzustellen, dass dieser Bug nicht keine negative Wirkung haben kann)
Und genau da lag das Problem zwischen uns.
Ich bin eben anderer Meinung, bzw. eben dieser, dass diese Frage erst dann beantwortet werden kann, wenn nähere Info's vorliegen und nicht irgendwelches Gewäsch aus dem Reich der CPU's oder ähnlichem. Fakten halt.
Aber gut, dass wir hier ein Stück weiter sind.
Und wenn nVidia das als ein Problem ansieht - und davon gehe ich aus - dann werden sie das schon korrigieren.
Bis denne
Razor
Razor
2003-04-21, 20:17:14
Originally posted by Labberlippe
Naja keine Frage, ich finde es sogar gut das die GPU runtertaktet um keinen Schaden zunehmen.
Keine Frage das auch hier die anderen Hersteller dieses integrieren sollte.
Dennoch sehe ich leider es so das die FX 5800Ultra eine verdammt heise Karte ist.
Was sich unter umständen auch auf das System auswirken kann.
Die meisten verwenden leider einen Midi Tower und die Karte strahlt auch auf der Rückseite eine hohe abwärme ab.
Ein XP2400+ und div andere Teile im System sind auch nicht gerade die kühlsten.
Hier wäre es schon fatal die Karte ohne zusätzliche Lüftermasnahme in einen solche "kleinen" Gehäuse lauf zu lassen.
Freilich ist die FX5800Ultra quasi nur für Freaks gedacht die dementsprechende Vorkerhrungen getroffen haben.
Nur leider gibt es dennoch genug Kunden die sich die Karte in System knallen und dann nicht nachvollziehen können warum das System hängt..
Na ja, soooo viele solcher Kunden wird es sicher nicht geben, die für das Ding ohne jegliche Hintergrundinfo 500€ (und mehr) ausgeben und dann nicht 'sorgsam' damit umgehen.
Wie dem auch sei, auch ich werde mir sicher keine 5800'er zulegen, weil auch ich vermute, dass sich der Innenraum dadurch aufheizt (ist zumindest einer der Beweggründe ;-). Und da ich mein System (bis auf die Festplatten) auf Silent-Betrieb umgestellt habe (CPU-Lüfter nur bei 2000u/min, sehr leises Netzteil, Papst 1500u/min Gehäuselüfter etc.), werde ich jetzt für 'ne GraKa sicher nicht davon abgehen... auch die Leadtek oder Gainward ist eindeutig zu laut (für mich ;-).
Originally posted by Labberlippe
Wie schon gesagt, ich sagte doch das die GPU nicht abraucht.
Nur ein Hänger kann sich das System schon einfangen und seis nur wenn die GPU die Taktraten auf ein minimum beschränkt.
Da scheinst Du nicht ganz mitbekommen zu haben, wann dies der Fall ist.
Welchen Grund sollte es geben, dass die Karte 140° heiß wird ?
???
Hab's gerade gelesen... ;-)
Originally posted by Labberlippe
Ich bin nicht Stefan Payne ich räume ja wohl div. Argumentationen ein.
Wie sich das genau auf die GPU auswirkt kann definitv keiner von uns sagen.
Fakt ist aber das meineiner schon lange mit der Materie PC beschäftigt und schon diese überdimensionierte Wärmeentwickelung mit einen "Achtung" quittieren muss.
Ich kann mir persönlich nicht gesagt vorstellen, das nVIDIA der einzige Hersteller in End Consumer Bereich ist, der in der Lage ist eine GPU mit herkömmlicher Produktion weit über 100Grad zu spezifizerien kann.
Im Dauerbetrieb sicher nicht, aber in Spitzen schon...
Warum auch nicht ?
Fakt ist aber, dass man es nicht weiß (oder sagen wir: bisher nicht wusste ;-) und deswegen endgültige Urteile fehl am Platze sind. So wie Du es formulierst, ist es ja ok, nicht aber wie ein gewisser Herr hier und natürlich ziehe ich von Dir keinen Vergleich zu diesem. Das wollte ich mit meinem letzten Post auch zum Ausdruck bringen...
Originally posted by Labberlippe
<snip>
...werde mir mal einen Kaffee reinpfeifen... :D
Nee lieber nicht (ich jetzt ;-), habe mir heut' nachmittag bis abend wohl schon 'ne ganze Kanne rein getan... *grunz* und irgendwie... egal !
:D
Bis denne
Razor
LovesuckZ
2003-04-26, 11:16:39
http://www.hothardware.com/reviews/images/leadtek_fx_5800/temp2.jpg
http://www.hothardware.com/hh_files/S&V/leadtek_fx5800(6).shtml
Da brauch man bei 100° keine Panik zu machen.
raibera
2003-04-28, 10:54:42
wenn ich das erste posting richtig verstanden habe, dann treten wohl manchmal bildfehler im betrieb eines 3d-bildschirmschoners auf.
und wenn das stimmt, dann kann ich mir nicht vorstellen, dass das gut für den chip ist - ganz egal was hier einige, bezüglich der temperaturbeständigkeit des chips, glauben.
es ist ein überaus unschöner fehler, da gibt's nichts schönzureden.
hoffen wir lieber, daß dieser fehler schnellstmöglich behoben wird.
In meinem Test mit dem Matrix Screensaver sind keine Bildfehler aufgetreten.
PS: nVIDIA hat mir auf die 2 Mails, die ich geschrieben habe, nicht geantwortet.
...wenn man vom Teufel spricht...
Habe gerade eine Antwort von nVIDIA erhalten. Kurz zusammengefasst:
Der Chip kann 140°C vertragen ohne Schaden zu nehmen.
Es sind Schutzfunktionen implementiert, welche den Chip nicht überhitzen lassen.
Im 3D Betrieb sollte die Temp 100°C nicht übersteigen.
Alles in allem sehe ich also kein Problem damit, wenn man mit einem 3D Screensaver 105°C erreicht.
@Mond
Mal abgesehen davon, dass der Chip diese Temperatur tatsächlich zumindest aushalten kann - was würdest du als NV-Mitarbeiter wohl antworten? Richtig, genau das.
Ich glaube kaum dass ein großes Unternehmen wie nVIDIA es sich leisten kann, dass ihre Grafikchips abrauchen. Die werden das sicherlich schon genug getestet haben, genauso wie AMD und Intel ihre CPUs testen oder ATi ihre Grafikchips.
Zudem wäre es kein Problem für nVIDIA, die GFFX auf unter 100°C zu halten. Da müsste halt nur öfters der Lüfter laufen. Wenn dieser läuft, ist es in meinen Augen im Alltag nicht zu schaffen, die Karte an die 100°C zu bringen. Das Problem ist nicht die Kühlung, sondern das Lüftersystem mit den 2D/3D Modi. Und ich glaube wirklich kaum, dass man beim NV30 offiziell von einer max. Temp. von 140°C spricht, obwohl schon 110°C gefährlich wären.
perforierer
2003-04-28, 22:57:35
Abrauchen würde ihnen sicher net gefallen. Aber verkürzte Lebenszeit juckt die denke ich wenig...
Razor
2003-04-29, 08:28:15
Um Mond recht zu geben und das Ganze nun auch endlich zum Abschluss zu bringen:
http://www.hardtecs4u.com/?id=1051564261,46096,ht4u.php
- maximum performance <100°
- erzwungene Kühlung bei 105° (ohne Bildfehler)
- erzwungenes Heruntertakten bei 140°
Ergo: Problem ist keines !
(und wird von nVidia mit dem DetonatorFX gerade behoben ;-)
Das einzige Problem ist hier, dass der Treiber den Lüfter abschaltet, obwohl sich die Karte noch im 3D-Modus befindet. Es greift dann hier die erste (!) Stufe der Sicherheitsmechanismen, welche verhindern, dass Schaden an der Hardware entsteht und das war's dann auch schon.
Nicht vergessen, die gffx läuft OHNE Kühlung und auch ohne zusätzliche Stromversorgung. Erst wenn mann Leistung haben will, benötigt man sowohl zustätzlichen Strom als auch die zugehörige Kühlung.
Ich hoffe, dass das Thema nun endlich abgehakt ist.
Die Lebenszeit wird nicht erheblich verkürzt (sind nur Temperatur-Spitzen, über die hier diskutiert wird) und die Hardware nimmt erst recht keinen Schaden. Ganz im Gegenteil haben wir durch diesen Treiber-Bug die Möglichkeit gehabt, mal zu sehen, was passiert, wenn das Lüftungssystem bzw. dessen Steuerung versagt.
Und by the way, was passiert eigentlich mit ATI's Kärtchen, wenn hier die Lüftung versagt ?
Ist wirklich kein Flameversuch, aber hier dürte nVidia eindeutig Punkten...
Bis denne
Razor
perforierer
2003-04-29, 08:47:57
Hmm, denke mal wenn die Lüftung versagt mag das kein moderner Chip, klare Sache. Aber warum sollten ATI Chips mehr Schaden nehmen. Sie produzieren ja weniger Abwärme...
Razor
2003-04-29, 09:24:58
Originally posted by perforierer
Hmm, denke mal wenn die Lüftung versagt mag das kein moderner Chip, klare Sache. Aber warum sollten ATI Chips mehr Schaden nehmen. Sie produzieren ja weniger Abwärme...
Ich habe lediglich gesagt, dass die Karten von nVidia nun auf dem Tisch liegen (ähnlich bei den CPU's von AMD und Intel), bei ATI aber noch nicht...
Mich würde interessieren, was passiert, wenn bei ATI die Lüftung ausfällt !
Raucht die Karte einfach ab, oder was passiert ?
Wäre doch interessant, oder ?
:D
Bis denne
Razor
StefanV
2003-04-29, 09:40:39
Originally posted by Razor
Die Lebenszeit wird nicht erheblich verkürzt (sind nur Temperatur-Spitzen, über die hier diskutiert wird) und die Hardware nimmt erst recht keinen Schaden. Ganz im Gegenteil haben wir durch diesen Treiber-Bug die Möglichkeit gehabt, mal zu sehen, was passiert, wenn das Lüftungssystem bzw. dessen Steuerung versagt.
Und by the way, was passiert eigentlich mit ATI's Kärtchen, wenn hier die Lüftung versagt ?
Ist wirklich kein Flameversuch, aber hier dürte nVidia eindeutig Punkten...
Bis denne
Razor
1. wenn du denn meinst...
2. sie laufen weiter und rauchen NICHT ab...
Siehe Thowe, dessen R300 schon über mehrere Stunden mit dem Stock Kühler ohne Lüfter lief...
Razor
2003-04-29, 09:47:04
Originally posted by Stefan Payne
2. sie laufen weiter und rauchen NICHT ab...
Siehe Thowe, dessen R300 schon über mehrere Stunden mit dem Stock Kühler ohne Lüfter lief...
Und ?
Mehr Info's !
In was für einem Rechner (i.e. Gehäuselüftung) ?
Was passierte ?
Bildfehler, Abstürze, taktet sie herunter ?
Mehr Info's !
Würde mich wirklich interessieren...
;-)
Bis denne
Razor
perforierer
2003-04-29, 10:00:09
@Razor: ich kann leider auch keine Infos bringen.
Mir war nur die Aussage "hier dürfte ATI eindeutig punkten" zu allgemein uund eben auch ohne jede Verifizierbarkeit...
dazu auch noch kursiv geschrieben. Voon daher hast Du net nur gesagt, dass "die karten von nVidia nun auf dem Tisch liegen" ;)
Razor
2003-04-29, 11:25:52
Originally posted by perforierer
@Razor: ich kann leider auch keine Infos bringen.
Mir war nur die Aussage "hier dürfte ATI eindeutig punkten" zu allgemein uund eben auch ohne jede Verifizierbarkeit...
dazu auch noch kursiv geschrieben. Voon daher hast Du net nur gesagt, dass "die karten von nVidia nun auf dem Tisch liegen" ;)
nVidia, nicht ATI !
:D
Ich wollte nur darauf hinaus, dass das Lüftungssystem von nVidia sehr gut durchdacht ist. Dann noch gekoppelt mit mehreren Sicherheitsstufen und im 2D-Betrieb sogar absolut lautlos, ohne bei der Leistung unter 3D oder beim Betrieb in einer Silent-Umgebung (gedämmtes Gehäuse ;-) Kompromisse einzugehen.
Ich bin der Meinung das nVidia hier technisch eindeutig punkten kann.
Eine effizientere (Luft-)Kühlung dürfte es derzeit nirgendwo geben.
Die Lautstärke steht auf einem anderen Blatt...
:D
Aber man stelle sich vor, diese Technologie wird zusammen mit 'normaler' Kühlung eingesetzt... das wäre ein echter Fortschritt und würde auch ATI sehr gut stehen...
Bis denne
Razor
AlfredENeumann
2003-04-29, 13:11:32
Originally posted by Razor
Und ?
Mehr Info's !
In was für einem Rechner (i.e. Gehäuselüftung) ?
Was passierte ?
Bildfehler, Abstürze, taktet sie herunter ?
Mehr Info's !
Würde mich wirklich interessieren...
;-)
Bis denne
Razor
Alles klar. JeEmand bringt ein Argument und jetzt biste Sprachlos, und suchst verzweifelt nach neuen. Sorry Razor, seine Karte ist halt nicht abgeraucht und nu is gut.
perforierer
2003-04-29, 13:20:33
Originally posted by Razor
Ich bin der Meinung das nVidia hier technisch eindeutig punkten kann. Eine effizientere (Luft-)Kühlung dürfte es derzeit nirgendwo geben.
Die Lautstärke steht auf einem anderen Blatt...
:D
Aber man stelle sich vor, diese Technologie wird zusammen mit 'normaler' Kühlung eingesetzt... das wäre ein echter Fortschritt und würde auch ATI sehr gut stehen...
O.k., jetzt verstehe ich, was Du meintest, ich dachte, das mit dem "Punkten" bezieht sich auf die Ausdauerfähigkeit von nVidia Chips bei Ausfall des Lüfters. Das war ja oben das Thema gewesen.
Generell finde ich, dass ein Lüftersystem schon auch nach "Kosten"/Ertrag beurteilt werden muss. Die Lüftung mag zwar gut sein, aber die Lautstärke unter Vollast ist dennoch zu hoch, m.E.
Zu Deinem letzten Satz: die 9800er Kühllösungen scheinen nicht so laut zu sein. Insofern hat ATI doch das bereits erreicht, oder nicht?
Razor
2003-04-29, 13:31:28
Originally posted by AlfredENeumann
Alles klar. JeEmand bringt ein Argument und jetzt biste Sprachlos, und suchst verzweifelt nach neuen. Sorry Razor, seine Karte ist halt nicht abgeraucht und nu is gut.
Dir mag das ja vielleicht reichen, AEN, mir nicht.
Schon gar nicht wenn es von jemanden bestimmten nur so daher gesagt wurde.
Mich interessieren Fakten.
Und wenn jemand erzählt, dass eine Karte "ein paar Stunden" lief, ohne abzurauchen, interessieren mich die Hintergründe. Schließlich würde das eine CPU (wohl auch meine gf3) unter Vollast nicht überstehen. Und da hier haarklein auseinander genommen wurde, wann was wie schädlich oder auch nicht sein kann, würde mich jetzt natürlich interessieren, wie das bei der Konkurrenz aussieht.
Das Dich das nicht interessiert, sagt mehr als 100 Worte !
Oder warum sollten solcherart Info's uninteressant sein ?
???
Und wenn die R9700pro bei Thowe nach ein paar Stunden mit Standard-Lüftung ohne aktive Kühlung nicht abgeraucht ist, dann muss es auch bei ATI einen Schutz ala Heruntertakten der CPU geben. Schließlich ist selbst meine R9500 bei intensivem Gebrach (3D ;-) schon knappe 60° heiß geworden (auf der Rückseite der Karte mit mehreren Methoden gemessen). Wie das Ganze dann ohne aktive Kühlung ausgesehen hätte, möchte ich lieber nicht wissen...
DESHALB interessiert mich der Hintergrund !
Verstanden ?
Bis denne
Razor
Quasar
2003-04-29, 13:32:47
Originally posted by AlfredENeumann
Alles klar. JeEmand bringt ein Argument und jetzt biste Sprachlos, und suchst verzweifelt nach neuen. Sorry Razor, seine Karte ist halt nicht abgeraucht und nu is gut.
Ich konnte in meinem Rechner auch bei einer Ti4600 stundenlang mit abgeklemmtem Lüfter zocken, ohne Bildfehler, ohne Beeinträchtigung.
Kommt doch wirklich alles auf die näheren Umstände an, oder AEN? Vielleicht ist Thowe's Rechner während der Zeit ja im Ruhemodus gewesen oder sowas.... Wieso willst du nachfragen auf einmal nicht mehr dulden?
Originally posted by Razor
Die Lebenszeit wird nicht erheblich verkürzt (sind nur Temperatur-Spitzen, über die hier diskutiert wird) und die Hardware nimmt erst recht keinen Schaden.
Diesen Absatz ist de facto falsch, Razor. Das warum und wieso wurde unter anderem in diesem Thread mehr als ausgiebig behandelt. Wenn du dir das Gegenteil davon ständig einreden willst -> OK, aber verschone uns damit, s'il-vous-plait.
Razor
2003-04-29, 13:50:23
Originally posted by perforierer
Generell finde ich, dass ein Lüftersystem schon auch nach "Kosten"/Ertrag beurteilt werden muss. Die Lüftung mag zwar gut sein, aber die Lautstärke unter Vollast ist dennoch zu hoch, m.E.
Nun ja, die Lautstärke kommt eindeutig durch den viel zu schnell drehenden Lüfter...
Die Karte (5800ultra) wird halt sehr heiß und deswegen die hohe Lüfterdrehzahl.
Das es auch anders geht, sieht man ja bei der Kühllösung von Arctic Cooling (bei 'ner HIS Radeon ?).
Hier dreht der Lüfter wesentlich langsamer und ist entsprechend leise.
Aber auch dort wird der Lüfter nicht ganz abgeschaltet, was schon einen Unterschied ausmacht.
Kaum hörbar und lautlos ist definitiv ein Unterschied.
Und DARAUF wollte ich hinaus.
Warum soll eine Karte auf vollem Takt und mit voller Lüfterleistung laufen, wenn dies schlicht nicht benötigt wird ? Der Lüfter selber wird geschont (dürfte die Lebenszeit eines Lüfters erheblich verlängern) und auch die GPU selbst wird geschont (Hitzeentwicklung nur, wenn nötig).
Und die Kosten für einen Temp-Sensor und eine entsprechende Logic, die darauf reagiert dürfte nich allzu sehr ins Gewicht fallen. Schließlich hat selbst eine 5200 für 100€ eine solche Hintergrundkontrolle (Monitoring).
Originally posted by perforierer
Zu Deinem letzten Satz: die 9800er Kühllösungen scheinen nicht so laut zu sein. Insofern hat ATI doch das bereits erreicht, oder nicht?
Von ... bis ...
Die Referenz-Kühllösungen von ATI sind sehr ruhig (nicht lautlos und auch nicht sehr leise - konnte ich bei meiner R9500 sehr gut nachvollziehen). Und offensichtlich gibt die GPU lange nicht so viel Wärme ab, bzw. ist der Unterschied zwischen Vollast und Idle-Betrieb nicht so gravierend. Das deutet aber nicht auf eine effiziente Kühlung, sondern auf sehr gutes Chip-Design hin, welches keine solch effiziente Kühlung benötigt.
Mir geht es hier allerdings weniger um die Kühlung selbst (da verbaut z.Bsp. MSI ja auf den sehr günstigen 4200'ern eine äusserst intersssate Kühlung), sondern um die Lüftersteuerung des Chips.
Und so etwas würde ich gerne auch bei ATI sehen.
Zumal dies ja möglich zu sein scheint, wenn man hört, dass Quasar eine 4600 im 2D-Betrieb und Thowe eine R9700pro unter noch ungeklärten Umständen ein paar Stunden ohne aktive Kühlung nutzen konnten.
Warum also nicht den Lüfter ausschalten, wenn er nicht nötig ist ?
???
Ich hoffe, dass dies jetzt klarer geworden ist.
Bis denne
Razor
Razor
2003-04-29, 13:59:31
Originally posted by Ikon
Diesen Absatz ist de facto falsch, Razor. Das warum und wieso wurde unter anderem in diesem Thread mehr als ausgiebig behandelt. Wenn du dir das Gegenteil davon ständig einreden willst -> OK, aber verschone uns damit, s'il-vous-plait.
Du siehst das offensichtlich anders, sagst aber nicht warum.
Warum verschonst Du uns nicht mit solchem Zeugs ?
(nicht ganz ernst gemeint ;-)
Aber jetzt mal ehrlich:
- die Karte geht in den 3D-Modus und der Lüfter setzt ein (Bildschirmschoner ein)
- irgenwann meint der Treiber nicht mehr im 3DModus zu sein und schaltet den Lüfter ab (Fehler im Treiber)
- die Karte wird schnell heiß und bei 105° wird der Lüfter wieder zugeschaltet (Hardwareschutz, gegen Treiberversagen)
- die Karte wird so wieder runter gekühlt
- extreme Wechsellast ist für diese nVidia-GPU 'normal' (passiert bei 2D/3D-Betrieb ständig)
- erst bei 140° wird die GPU herunter getaktet (Hardwareschutz gegen Lüfterausfall)
- wenn der Lüfter ordnungsgemäß funktioniert, dann gibt es KEINE Möglichkeit, die GPU auf über 105° zu treiben.
Daraus ergibt sich doch folgende Fragestellung:
Warum taktet nVidia nicht schon bei 110° oder bei 120° die GPU herunter, wenn das schädlich für diese wäre ?
???
Dies alles spricht dafür, dass dieses Problem gar keines ist.
Du aber sagt, dass dies falsch ist, bleibst aber eine Begründung dafür schuldig.
Alle hier im Thread genannten Argumente wurden entkräftet, worauf beziehst Du Dich also ?
Insofern wäre ich Dir dankbar, wenn Du nicht mit solchen Pauschalaussagen kommst...
Und noch einmal: Dass sich das Ganze offensichtlich bei CPU's anders verhält, ist für eine GPU kein Argument.
(zumal diese sicher nicht für 140° ausgelegt sind und schon sehr viel früher herunter takten, siehe P4)
Bis denne
Razor
Quasar
2003-04-29, 14:00:19
Originally posted by Razor
Schließlich hat selbst eine 5200 für 100€ eine solche Hintergrundkontrolle (Monitoring).
Nöpe, erst ab GFFX5600 gibt's solchen Luxus. :)
perforierer
2003-04-29, 14:01:54
Jo klar, ich verstehe den Ansatz schon, das sehe ich eigentlich auch ganz ähnlich wie Du, warum sollte er laufen, wenn man ihn nicht braucht? Darauf hatte ich mich auch oben gar net beziehen wollen.
Aber: Ich selbst habe eine gewisse Aversion gegen Temp-geregelte Lüfter, sowohl bei CPUs, als auch bei GPUs, weil fast alle beim hoch- und runterfahren ein für meine Ohren sehr nerviges Geräusch machen. Das Referenzmodell von nVidia der 588er Ultra ist sicherlich die Krönung, aber es gibt auch andere, unangenehme Beispiele.
Natürlich ist es möglich, Lüfter den tempowechsel leie machen zu lassen, man wird sehen, wie die Hersteller das hinbekommen. Generell wäre mir eine verbesserte Hitzeableitung über größere Kühlkörper und kleinere und langsamdrehende Lüfter lieber, als schnelldrehende und kleine kühlkürper.
Razor
2003-04-29, 14:09:58
Originally posted by Quasar
Nöpe, erst ab GFFX5600 gibt's solchen Luxus. :)
Merchwürdich...
http://www.myworldhardware.com/v3/review.asp?ID=31&Page=4
:D
Habe allerdings keinen Hinweis darauf gefunden, ob auch eine FX5200 (nonUltra) so etwas besitzt.
Warum aber nicht ?
Bis denne
Razor
P.S.: Die hier gezeigte FX5200ultra taktet schon bei 135° herunter *eg*
Quasar
2003-04-29, 14:19:33
"Meine" non-ultra kann so etwas definitiv nicht. Möglicherweise kann es der Chip und es wird nur für die Ultra-Versionen freigeschaltet, was ich aber eigentlich bezweifle. *schulterzuck*
Eine bessere Erklärung fällt mir nicht ein.
edit:
Die hier angezeigte FX5600 sogar schon bei 134°C. ;)
Razor
2003-04-29, 14:19:40
Originally posted by perforierer
Jo klar, ich verstehe den Ansatz schon, das sehe ich eigentlich auch ganz ähnlich wie Du, warum sollte er laufen, wenn man ihn nicht braucht? Darauf hatte ich mich auch oben gar net beziehen wollen.
Na dann haben wir uns ein bissel mißverstanden...
;-)
Originally posted by perforierer
Aber: Ich selbst habe eine gewisse Aversion gegen Temp-geregelte Lüfter, sowohl bei CPUs, als auch bei GPUs, weil fast alle beim hoch- und runterfahren ein für meine Ohren sehr nerviges Geräusch machen. Das Referenzmodell von nVidia der 588er Ultra ist sicherlich die Krönung, aber es gibt auch andere, unangenehme Beispiele.
Natürlich ist es möglich, Lüfter den tempowechsel leie machen zu lassen, man wird sehen, wie die Hersteller das hinbekommen.
OK, der Tempowechsel, bzw. das Geräusch des Anlaufens eines Lüfters, ist definitiv ein Argument. Ich kann Dir aber von den 6 Papst-Lüftern in meinem Gehäuse (2xNetzteil, 1xCPU, 3xGehäuse) berichten, dass die beim Anlaufen definitiv nicht unangenehm auffallen.
Und die Hersteller werden schon entsprechende Lösungen finden, wenn der Markt danach fragt. Bisher war es halt nicht notwendig, da die Karten oft nicht länger eingesetzt wurden, als der Lüfter 'lebt'. Wenn nun aber der Endverbraucher sagt, dass ihm ein ruhiger Rechner (z.Bsp. im Wohnzimmer) sehr wichtig ist, dann spricht nichts dagegen den Lüfter von bestimmten Komponenten (besionders bei kleinen und damit lauten lüftern) einfach abzuschalten.
Solche Lösungen müssen allerdings erst einmal entwickelt werden...
Originally posted by perforierer
Generell wäre mir eine verbesserte Hitzeableitung über größere Kühlkörper und kleinere und langsamdrehende Lüfter lieber, als schnelldrehende und kleine kühlkürper.
Warum nicht große Kühler mit langsamdrehenden, großen (und leisen) Lüftern ?
???
Bis denne
Razor
@Razor
Falls es für dich immer noch nicht klar geworden ist: Es ist irrelevant welcher Hersteller welchen Halbleiter für welche Temperatur und/oder Lebensdauer spezifiziert ist, Elektromigration tritt so oder so auf (und wird durch höhere Temperaturen begünstigt), dagegen kann der Hersteller gar nichts tun.
Mehr ist zu dem Thema nicht zu sagen.
Wenn du Informationen über dieses Phänomen willst, dann gib' einfach mal bei Google "Elektromigration" oder "parasitäre Effekte" ein.
Razor
2003-04-29, 14:24:03
Originally posted by Quasar
"Meine" non-ultra kann so etwas definitiv nicht. Möglicherweise kann es der Chip und es wird nur für die Ultra-Versionen freigeschaltet, was ich aber eigentlich bezweifle. *schulterzuck*
Eine bessere Erklärung fällt mir nicht ein.
Kann auch sein, dass es was mit dem PCB zu tun hat.
Schließlich unterscheidet sich ja das Layout von nonUltra zu Ultra erheblich.
Du hast also eine 5200nonUltra ?
:D
Bin auch schon am überlegen, ob ich mir so etwas 'zum Spielen' zulegen sollte.
Würde mich für 'ne 128MB-Retail nicht mal 95€ kosten...
Ich ja kein Geld, also...
;-)
Ich weiß net, aber in meinem Kurzurlaub hätt ich schon gern was zum ausprobieren !
;D
Bis denne
Razor
P.S.: Wo "hier" ?
???
Razor
2003-04-29, 14:30:08
Originally posted by Ikon
@Razor
Falls es für dich immer noch nicht klar geworden ist: Es ist irrelevant welcher Hersteller welchen Halbleiter für welche Temperatur und/oder Lebensdauer spezifiziert ist, Elektromigration tritt so oder so auf (und wird durch höhere Temperaturen begünstigt), dagegen kann der Hersteller gar nichts tun.
Mehr ist zu dem Thema nicht zu sagen.
Und Du bist nicht der Meinung, dass EM durch bestimmte Disgns begünstigt werden kann ?
(besser anders herum ;-)
Will sagen:
Was ist an einem Chip schlechter, der auf 10 Jahre für eine durchschnittliche Temp von 70° ausgelegt ist, als ein Chip bei 10 Jahren auf 50° ?
Wenn Du mir DAS erklären kannst, bin ich ruhig.
Ansonsten hast Du das hier diskutierte Thema offensichtlich nicht verstanden...
Bis denne
Razor
Quasar
2003-04-29, 14:31:21
Originally posted by Razor
P.S.: Wo "hier" ?
;D
Rechts, ca. 45cm entfernt und unterm Schreibtisch. ;)
Razor
2003-04-29, 14:33:43
Originally posted by Quasar
Rechts, ca. 45cm entfernt und unterm Schreibtisch. ;)
Du sprichst in Rätseln...
;D
Und, würde sich 'ne 5200 zum spielen 'lohnen' ?
;-)
Razor
Quasar
2003-04-29, 14:38:39
Zum "spielen" ja, zum Gamen eher nicht, es sei denn, man macht ein Upgrade von einer GeForce2/RadeonI oder niedriger.
edit:
Aber auf jeden Fall darauf achten, dass man eine 128Bit-Karte, möglichst passiv gekühlt bekommt. Sonst macht's wirklich nur wenig Spass.
Ausserdem birgt manche FX5200 ein erstaunliches OC-Potential und bleibt dabei passiv kühlbar....
x-dragon
2003-04-29, 15:03:29
Originally posted by Seraf
@Razor
...
Wird vielleicht bei Longhorn mit einer Geforce 5800 immer der Lüfter auf vollen touren laufen weil D3D ja immer benutzt wird?
*vorstell*
Dann wären ja nur die kleinen FX longhorntauglich Originally posted by X-Dragon
Bin zwar nicht Razor, aber mit neueren Treibern läßt sich da bestimmt noch was zurechtbiegen, wobei natürlich die Frage, wie stark die Karte bei dem System beansprucht wird. Also mit den aktuellen Treibern sollten die Lüfter durchgängig laufen, es sein denn der Desktop würde ähnlich wie Bildschirmschoner als 2D einegstuft werden. Originally posted by Razor Vielleicht ist ja gerade das das Problem der neuen Deto's ?
Vielleicht kann er zwischen dem Longhorn-Desktop und einem 3D-Bildschirmschoner nicht unterscheiden (ist ja auch eine abhängige Komponente des Desktops).
Wäre echt 'ne Überlegung wert...
Poste das doch mal im zugehörigen nVidia-Thread !
Bis denne
Razor Viel Spaß beim spekulieren ... :)
(oder kommt das doch besser ins Speku-Forum?)
Razor
2003-04-29, 15:17:13
Originally posted by X-Dragon
Viel Spaß beim spekulieren ... :)
(oder kommt das doch besser ins Speku-Forum?)
Thx X-Dragon.
Ich denke, dass dies sehr gut hierher paßt !
Könnte tatsächlich die Ursache des Problems sein...
Bis denne
Razor
Razor
2003-04-29, 15:25:18
Originally posted by Quasar
Zum "spielen" ja, zum Gamen eher nicht, es sei denn, man macht ein Upgrade von einer GeForce2/RadeonI oder niedriger.
Jop, das "spielen" interessiert mich, nicht das Gamen...
:D
Originally posted by Quasar
edit:
Aber auf jeden Fall darauf achten, dass man eine 128Bit-Karte, möglichst passiv gekühlt bekommt. Sonst macht's wirklich nur wenig Spass.
Das ist doch mal ein guter Tip !
Mit 128Bit meist Du analog 128MB, gell ?
(meine gelesen zu haben, dass die 64MB'ler auch nur 64Bit haben)
Und klar, was anderes, als 'ne passive Karte wär' mir auch nicht in den Sinn gekommen...
Originally posted by Quasar
Ausserdem birgt manche FX5200 ein erstaunliches OC-Potential und bleibt dabei passiv kühlbar....
Jo, hab ich auch schon gehört, wäre aber nicht mein persönliches Anliegen...
... wenn man mal von der Kategorie "spielen" absieht !
Durch das Fehlen der exterenen Stromversorgung dürften dem 'eh Grenzen gesetzt sein, gell ?
Und ? Welche würdest Du empfehlen ?
Inno3D, ELSA (sind hier beide nur schwer zu bekommen), oder ASUS (Magic/T) ?
???
Sach doch mal...
;-)
Razor
perforierer
2003-04-29, 15:29:21
Originally posted by Razor
Warum nicht große Kühler mit langsamdrehenden, großen (und leisen) Lüftern ?
Äh jo, wäre au ok. :)
ich wollte nur sagen, dass für den Bereich der Passivkühlung vielleicht noch Potential da ist. Dann kann man jedenfalls die Lüfter langsamer machen. Die Größe ist dann nimmer entscheidend, hast recht. :)
Quasar
2003-04-29, 15:30:35
Kann ich dir nicht sagen... Dazu hab' ich zuwenig Vergleichsmöglichkeiten innerhalb einer Chipreihe.
Ich bin recht zufrieden mit der Inno3d, andere FX5200 hatte ich aber noch nicht...
Was 128Bit und 128MB betrifft: Ich weiss nicht genau, ob man das so pauschalisieren kann. Ich glaube eher, dass die Anzahl der Chips einen Rückschluss auf die Busbreite erlaubt. "8 Chips sind 128Bit breit" ;)
Razor
2003-04-29, 15:46:00
Originally posted by Quasar
Kann ich dir nicht sagen... Dazu hab' ich zuwenig Vergleichsmöglichkeiten innerhalb einer Chipreihe.
Ich bin recht zufrieden mit der Inno3d, andere FX5200 hatte ich aber noch nicht...
Was 128Bit und 128MB betrifft: Ich weiss nicht genau, ob man das so pauschalisieren kann. Ich glaube eher, dass die Anzahl der Chips einen Rückschluss auf die Busbreite erlaubt. "8 Chips sind 128Bit breit" ;)
OK Quasar, thx for the Info !
Karten mit nur 4 Chips hab' ich auch schon gesehen, waren aber ausnahmslos 64MB-Karten.
Scheint aber ein recht sicherer Ausgangspunkt zu sein.
Das mit der Inno3D hab' ich mir schon gedacht, nur wo bekomm ich die Hamburg ?
(bei versand ist die Karte hier, wenn mein Kurzurlaub zuende ist ;-)
Bei der PNY (Verto) bin ich mir nicht ganz sicher, ob passiv, oder nicht.
Mal schaun', ob ich da was finde...
Gibt's im MadiaMarkt und Saturn als Massenware und erfreuen sich reißendem Ansatz !
Auch die Aeolus (oder so) für glatte 20€ weniger, aber eben nur 64MB...
;-)
Bis denne und thx noxhmal für die Info !
Razor
StefanV
2003-04-29, 16:14:51
@Razor
Ikon hat schon recht, daß eine erhöhte Temperatur die Lebensdauer eines Chips beungünstigt!!
Wenn du das immer noch nicht glauben magst, dann schau dir mal die Datenblätter von diversen Kondensatoren an, insbesondere die MTBF oder aber von Festplatten.
MTBF nimmt ab, wenn die Temperatur höher wird!!
Dagegen kann nVidia nix machen, da auch sie an die Gesetze der Physik gebunden sind.
StefanV
2003-04-29, 16:15:44
Originally posted by Quasar
Kommt doch wirklich alles auf die näheren Umstände an, oder AEN? Vielleicht ist Thowe's Rechner während der Zeit ja im Ruhemodus gewesen oder sowas.... Wieso willst du nachfragen auf einmal nicht mehr dulden?
Wenn ich mich recht entsinne, dann hat Thowe 4 Stunden mit dem Rechner gezockt und nicht gemerkt, daß der Lüfter der Radeon 9700 PRO nicht lief...
perforierer
2003-04-29, 16:17:45
A Propos Aeolus, jedenfalls die GF4 Ti von Aopen ist super verarbeitet und hat nen klasse Lüfter (hab ich selbst). Die 5200 ist , zumindest nach den Bildern, passiv gekühlt und gibts auch als 128er:
http://www.aopen.com/products/vga/fx5200-dv128.htm
:)
Ob man 130 € für ne 5200er zahlen will steht natürlich auf nem anderen Blatt ;)
StefanV
2003-04-29, 16:31:59
Originally posted by perforierer
A Propos Aeolus, jedenfalls die GF4 Ti von Aopen ist super verarbeitet und hat nen klasse Lüfter (hab ich selbst). Die 5200 ist , zumindest nach den Bildern, passiv gekühlt und gibts auch als 128er:
http://www.aopen.com/products/vga/fx5200-dv128.htm
:)
Ob man 130 € für ne 5200er zahlen will steht natürlich auf nem anderen Blatt ;)
1. Naja, bei meiner Prolink wars nicht anders, bei der alten MSI hingegen schon, die soll recht laut gewesen sein.
2. ui, toll...
So ein winziger und handlicher passiv Kühler...
3. für 130€ sollte man sich lieber 'ne GF4 TI4200 kaufen...
Razor
2003-04-29, 16:55:31
Originally posted by Stefan Payne
@Razor
Ikon hat schon recht, daß eine erhöhte Temperatur die Lebensdauer eines Chips beungünstigt!!
Wenn du das immer noch nicht glauben magst, dann schau dir mal die Datenblätter von diversen Kondensatoren an, insbesondere die MTBF oder aber von Festplatten.
MTBF nimmt ab, wenn die Temperatur höher wird!!
Dagegen kann nVidia nix machen, da auch sie an die Gesetze der Physik gebunden sind.
Ich weiß, Payne, dass Du es nicht so mit dem Lesen hast, also nochmal exklusiv für Dich:
(Ikon hat auf diese Frage übrigens auch nicht geantwortet ;-)
Originally posted by Razor
Und Du bist nicht der Meinung, dass EM durch bestimmte Disgns begünstigt werden kann ?
(besser anders herum ;-)
Will sagen:
Was ist an einem Chip schlechter, der auf 10 Jahre für eine durchschnittliche Temp von 70° ausgelegt ist, als ein Chip bei 10 Jahren auf 50° ?
Wenn Du mir DAS erklären kannst, bin ich ruhig.
Ansonsten hast Du das hier diskutierte Thema offensichtlich nicht verstanden...
Das gleiche gilt auch für Dich.
Bin mal gespannt, ob wenigstens von Dir eine Antwort darauf kommt...
Razor
Razor
2003-04-29, 17:01:16
Originally posted by Stefan Payne
Wenn ich mich recht entsinne, dann hat Thowe 4 Stunden mit dem Rechner gezockt und nicht gemerkt, daß der Lüfter der Radeon 9700 PRO nicht lief...
4 Stunden unter Vollast ohne aktive Kühlung ?
???
Glaubst Du das wirklich ?
Auch ist diese Aussage mehr als Schwammig, denn wie hat er gemerkt, dass der Lüfter aus ist ?
Vielleicht Bildfehler ?
Wenn dem so ist, kann es also auch gut möglich sein, dass der Lüfter gerade mal 'ne Minute aus war...
Wie gesagt, ohne nähere Info's sagt das leider gar nichts.
Bis denne
Razor
Razor
2003-04-29, 17:02:53
Originally posted by Stefan Payne
3. für 130€ sollte man sich lieber 'ne GF4 TI4200 kaufen...
Auch hier warst Du offensichtlich nicht des Lesens mächtig...
Oder ist Dir der Unterschied zwischen "spielen" und Gamen irgendwie entfallen ?
:D
Razor
perforierer
2003-04-29, 17:15:40
Originally posted by Stefan Payne
1. Naja, bei meiner Prolink wars nicht anders, bei der alten MSI hingegen schon, die soll recht laut gewesen sein.
2. ui, toll...
So ein winziger und handlicher passiv Kühler...
3. für 130€ sollte man sich lieber 'ne GF4 TI4200 kaufen...
zu 1. Es ging um die Aeolus, weil Razor die 5200 von Aopen erwähnte. Ich wollte damit nur sagen, dass die Aopen gut gemacht sind.
zu 2. Keine Ahnung, was Du damit sagen willst, falls es Ironie sein soll sehe ich den Sinn für Ironie hier nicht. :)
zu 3. Das sehen wir wohl alle so, es ging aber darum, dass Razor ja ne 5200er zum "Spass" sucht mit 128 MB. Weiss ich, wieviel Geld er dafür ausgeben will?
LovesuckZ
2003-04-29, 17:38:07
@Quasar
hast du mal die Dawn - Demo mit der 5200 durchlaufen lassen?
Quasar
2003-04-29, 18:03:40
Ja und sie funktioniert.
LovesuckZ
2003-04-29, 18:06:36
Originally posted by Quasar
Ja und sie funktioniert.
Und wie laeuft sie so?
/edit: Geschwindigkeitsmaeßig.
AlfredENeumann
2003-04-29, 18:10:29
Originally posted by Quasar
Ich konnte in meinem Rechner auch bei einer Ti4600 stundenlang mit abgeklemmtem Lüfter zocken, ohne Bildfehler, ohne Beeinträchtigung.
Kommt doch wirklich alles auf die näheren Umstände an, oder AEN? Vielleicht ist Thowe's Rechner während der Zeit ja im Ruhemodus gewesen oder sowas.... Wieso willst du nachfragen auf einmal nicht mehr dulden?
Ich hatte es halt etwas anders aufgedasst.
Quasar
2003-04-29, 18:18:37
Originally posted by LovesuckZ
Und wie laeuft sie so?
/edit: Geschwindigkeitsmaeßig.
Mäßig flott. Dawn ist nicht wirklich aufwendig...
Razor
2003-04-29, 18:52:46
Originally posted by Quasar
Mäßig flott. Dawn ist nicht wirklich aufwendig...
Auch mal "Dawn Ultra" ?
:D
Nein, bitte antworte nicht auf diese Frage...
Denn o.g. meinte ich bitter ernst: Geschwindigkeit egal, aber "spielen" ist wichtig !
Razor
P.S.: LovesuckZ, warum sollte Dawn nicht auf einer 5200 laufen ?
???
LovesuckZ
2003-04-29, 19:14:24
Originally posted by Razor
P.S.: LovesuckZ, warum sollte Dawn nicht auf einer 5200 laufen ?
???
Es ging mir nur um die Geschwindigkeit.
StefanV
2003-04-29, 19:37:11
Originally posted by Razor
Ich weiß, Payne, dass Du es nicht so mit dem Lesen hast, also nochmal exklusiv für Dich:
(Ikon hat auf diese Frage übrigens auch nicht geantwortet ;-)
Das gleiche gilt auch für Dich.
Bin mal gespannt, ob wenigstens von Dir eine Antwort darauf kommt...
Razor
Da du mal wieder andere beschuldigst keine Ahnung zu haben und mal wieder versuchst die FX5800 schhön zu reden, hier mal was über Kondensatoren:
Originally posted by Heise
Low-ESR-Elkos sind ein Standardprodukt und kommen auch in vielen anderen Geräten und PC-Komponenten zum Einsatz. Auf PC-Mainboards erkennt man sie leicht an ihrer typischen zylindrischen Bauform und ihrer Platzierung rund um den Prozessorsockel. Gängige Typen für CPU-Spannungsregler haben zwischen 1000 und 3300 µF (Mikrofarad) Kapazität und sind für Spannungen von 6,3 bis 16 Volt, Ripple-Ströme von bis zu 2,5 Ampere (100 kHz/25 °C) und Betriebstemperaturen von maximal 105 °C ausgelegt.
Die Spannungs- und Temperaturangaben haben dabei aber Grenzwert-Charakter. Die Datenblätter der etablierten Kondensator-Hersteller weisen bei diesen Betriebsbedingungen eine Nenn-Lebensdauer von 2000 bis 8000 Stunden auf -- das entspricht weniger als einem Jahr Dauerbetrieb. Die tatsächliche Lebensdauer der Kondensatoren, die durch die Einhaltung gewisser Grenzwerte der Kapazität und des Innenwiderstandes definiert ist, ist viel länger -- hängt aber entscheidend von ihren konkreten Betriebsbedingungen ab.
Quelle (http://www.heise.de/ct/aktuell/data/ciw-04.03.03-000/)
Razor, glaubst du wirklich, das das bei anderen Bauteilen anders ist ??
Es geht hier ja nicht unbedingt um den Grafikchip sondern auch um Kondensatoren, Spulen, Widerstände, Spannungsregler usw!!
Bei meiner Parhelia ist ja auch schonmal ein Spannungsregler geplatzt, der eigentlich auch nicht soo warm (ca. 60-75°C) war aber dummerweise kanns bei solchen Bauteilen sein, daß sie gerademal 90°C vertragen besser gesagt das Package...
Razor
2003-04-29, 19:44:09
@Payne
Originally posted by Razor
Und Du bist nicht der Meinung, dass EM durch bestimmte Disgns begünstigt werden kann ?
(besser anders herum ;-)
Will sagen:
Was ist an einem Chip schlechter, der auf 10 Jahre für eine durchschnittliche Temp von 70° ausgelegt ist, als ein Chip bei 10 Jahren auf 50° ?
Wenn Du mir DAS erklären kannst, bin ich ruhig.
Ansonsten hast Du das hier diskutierte Thema offensichtlich nicht verstanden...
Sag mal, was ist daran jetzt verständlich gewesen ?
Was interssieren mich jetzt irgendwelche Kondensatoren ?
???
Du willst also ernsthaft behaupten, dass Chips grundsätzlich für den gleichen Einsatz und die gleichen Belastungen spezifiziert sind ?
Dass erklär mir doch mal, wie es möglich ist, dass so ein NV30-Chip bei 105°, die er ja wohl öfters erreicht hat (und erst bei 140° herunter taktet) noch lebt, während eine AMD oder Intel CPU schon längst abgeraucht wäre ? Und das bei wesentlich höherer Komplexität...
Sorry, aber wenn Du immer wieder mit dem gleichen Zeugs am Thema vorbei argumentierst, wird's dadurch nicht besser. Und noch einmal: das Prinzip der Elektromigration ist mir durchaus bekannt.
Aber ich erkenne an, dass Du wenigstens versuchst, Belege für Deine Aussagen zu finden, auch wenn diese am Thema vorbei gehen.
Bis denne
Razor
StefanV
2003-04-29, 22:21:57
Sag mal Razor, hast du schonmal an die anderen Bauteile auf der Karte gedacht ??
z.B. die Widerstände/Kondensatoren/Spulen auf der Rückseite des Chips...
Bei meiner Riva 128 war auf der Rückseite der Karte ein Kondensator nach ~3Jahren so bescheiden, daß das Bild dunkler wurde und sobald ich meinen Finger auf diesen Kondensator gelegt hab, wurde das Bild wieder heller.
Und jetzt kommst du und willst erzählen, daß alle Bauteile auf dem Board dauerhaft 100°C mitmachen und keinen Schaden nehmen??
Ersteinmal:
Eine höhere Temperatur beeinflusst die Haltbarkeit JEDES Bauteils erheblich!
Sei es nun ein Motor, eine integriete Schaltung, z.B. eine CPU oder weiß der Geier was.
Selbst wenn der Chip das mitmacht, bist du dir sicher, daß es alle anderen Bauteile auch mitmachen ??
Und ganz ab davon kannst du niemanden erzählen, daß 100°C für einen komplexen Chip dauerhaft gut ist...
Quasar
2003-04-29, 23:07:02
Payne, die KERNtemperatur der GFFX steigt bis auf 105°C an, nicht die Kartentemperatur selber...
Das weitaus meiste dieser Wärme wird durch den Kühler abtransportiert....
Originally posted by Razor
Ikon hat auf diese Frage übrigens auch nicht geantwortet ;-)
Bin mal gespannt, ob wenigstens von Dir eine Antwort darauf kommt...
Da jede deiner Fragen in diesem Thread von einem gewissen oder gewollten Unverständnis des Sachverhaltes zeugt, habe ich mir diese Antwort geschenkt. Ich erwähnte bereits, wo du die entsprechenden Informationen nachlesen kannst, schließlich bin ich nicht dein Physik-Prof.
Ich finde es schon etwas seltsam, ständig Fragen mit der Intention zu stellen, dass der/die andere(n) schon irgendwann keine Lust mehr zum antworten haben wird/werden, nur dass Mr. Razor dann seine offensichtlich nicht-fundierte Sichtweise als Tatsache propagieren kann. Bitte verschaff' dir erstmal einen Überblick über ein Thema bevor du wild durch die Gegend spekulierst.
Razor
2003-04-30, 05:10:25
Ich geb's auf mit Euch beiden...
Umarmt Euch und werdet glücklich.
Wenn Stefan jetzt sogar der Meinung ist, dass sich die ganze Karte dauerhaft auf 100° aufheizt und Ikon ein Prof zu sein, dann ist hier jegliche Diskussion schlicht überflüssig.
Sagt mal, geht's Euch beiden wirklich noch gut ?
???
Na ja, ich denke, die meisten werden verstanden haben, worum es geht und wie es mit der Sachlage bestellt ist. Selbst HT4U hat es richtig gestellt und 3DCenter entsprechend aufgenommen... Stefan und Ikon wollens aber net raffen... na dann eben nicht.
Na dann mal noch viel Spaß beim... ich sach's net !
:D
Razor
;D
*nicht auf dieses Niveau begleit*
StefanV
2003-04-30, 09:32:28
@Razor
Da du keine Argumente bringst, sondern nur irgendwelches Gefasel und dazu noch Anfeindungen und Beileidigungen under der Gürtellinie, hier nochmal ein richtiger Beweis:
http://forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=68071
+10°C -> halbe Lebensdauer.
Das schlimme ist ja, daß das für so ziemlich JEDES Bauteil gelten dürfte...
Es muß auch nicht unbedingt sein, daß der Grafikchip abraucht, es reicht unter Umständen schon ein Glättungskondensator in der Nähe des Chips.
Die Folge wäre ja ähnlich, auch das würde den Chip rösten.
Und nochmal für dich:
nVida kann die Gesetze der Physik und Elektronik weder biegen noch brechen, alle müssen sich an die gleichen Gegebenheiten halten!!
Frank
2003-04-30, 09:48:45
Originally posted by Stefan Payne
nVida kann die Gesetze der Physik und Elektronik weder biegen noch brechen, alle müssen sich an die gleichen Gegebenheiten halten!! .... jaa - geh mal damit zu den Christen und sag statt "nVidia" "Niemand". :lol:
Spass beiseite: Bezeichung von Razor für Stefan / von Stefan für Razor hab ich überlesen. Sowas muss doch nicht sein!
StefanV
2003-04-30, 09:59:48
Originally posted by Frank
.... jaa - geh mal damit zu den Christen und sag statt "nVidia" "Niemand". :lol:
Spass beiseite: Bezeichung von Razor für Stefan / von Stefan für Razor hab ich überlesen. Sowas muss doch nicht sein!
ok, du hast recht, die Bezeichnung war etwas unpassend, ich werds umgehend ändern!!
Quasar
2003-04-30, 12:48:44
Originally posted by Stefan Payne
+10°C -> halbe Lebensdauer.
Mag ja sein, aber wie kommst du darauf, daraus das Gegenteil ableiten zu können und das, obwohl du überhaupt keine Ahnung hast, von welcher "normal"-Temperatur man bei der Validierung der GFFX-Karten ausgegangen ist.
Dazu solltest du eines nicht vergessen. Bisherige GPUs konnte man allerhöchstens am Kühler messen, bzw. an einer oberflächlich auf dem Chip-PACKAGE aufliegenden Sonde.
Beim GFFX wird die KERNtemperatur ausgelesen.
Wenn eine Radeon9700p also an bestimmten Stellen aussen am Kühlkörper mehr als 60°C erreicht oder eine Banshee sogar mehr als 70°C, oder ein PentiumPro200 nahezu 85°C, was sagt uns das über die KERNtemperaturen??
Richtig: Nichts!
Und nun kommst du und willst völlig ohne Referenzgrundlage die 105°C Kerntemperatur einer FX5800u als gefährlich oder lebensdauerverkürzend hoch ankreiden?
:|
Originally posted by Quasar
Und nun kommst du und willst völlig ohne Referenzgrundlage die 105°C Kerntemperatur einer FX5800u als gefährlich oder lebensdauerverkürzend hoch ankreiden?
Nun, lebensdauerverlängernd kann eine relativ hohe Temperatur auch nicht sein. Mein Einwurf bezüglich Elektromigration (viele Seiten weiter vorne) war auch keineswegs als Hinweis auf eine akute Gefahr gedacht, sondern eben nur als Hinweis am Rande, dass sich so eine Betreibstemperatur negativ auf die Lebensdauer auswirken kann (wobei ich selbst bezweifele, dass deren Beeinflussung wirklich signifikant ist).
(Daher verstehe ich auch nicht so ganz, warum Razor das so "aufplustert".)
Unregistered
2003-04-30, 14:44:33
Originally posted by Ikon
Ich finde es schon etwas seltsam, ständig Fragen mit der Intention zu stellen, dass der/die andere(n) schon irgendwann keine Lust mehr zum antworten haben wird/werden, nur dass Mr. Razor dann seine offensichtlich nicht-fundierte Sichtweise als Tatsache propagieren kann. Bitte verschaff' dir erstmal einen Überblick über ein Thema bevor du wild durch die Gegend spekulierst.
Find ich sehr treffend. Hat noch keiner so schön in Worte gefasst, nur leider kommt das viel zu selten bei den Betreffenden an.
Razor
2003-04-30, 15:00:34
Originally posted by Frank
Spass beiseite: Bezeichung von Razor für Stefan / von Stefan für Razor hab ich überlesen. Sowas muss doch nicht sein!
Ähm....
???
Razor
Razor
2003-04-30, 15:10:42
Originally posted by Ikon
(Daher verstehe ich auch nicht so ganz, warum Razor das so "aufplustert".)
Wenn Du des Lesens mächtig bist (wovon ich ausgehe), dann wirst Du sicher Deine eigenen Posts (die letzten, nicht ein paar Seiten zuvor), vor allem aber Paynes Post (in dessen Horn Du gestoßen hast) gelesen oder zumindest inhaltlich aufgenommen haben.
Und darin kann man sich nicht des Eindruckes erwehren, dass Du diese Inhalte bezüglich der Elektromigration direkt auf das Thread-Thema beziehst. Was ja auch nicht sooo bawegig ist...
Wie dem auch sei, Du sagst also:
"...dass sich so eine Betreibstemperatur negativ auf die Lebensdauer auswirken kann (wobei ich selbst bezweifele, dass deren Beeinflussung wirklich signifikant ist)."
Und wenn dem so ist, stimme ich Dir zu 100% zu und kann nur bestötigen, dass es möglich ist, aber nicht so sein muß ! So ist es also auch möglich (wie Du ja auch selber vermutest), dass dieses also überhaupt keinen nennenswerten Einfluß auf die Lebensdauer des Chips hat. Und um nichts anderes ging es mir...
Ein ganz gewaltiger Unterschied zu der von Payne geführten Diskussion.
Abermals möchte ich mich also entschuldigen, Dich nicht richtig verstanden zu haben und Dich wieder einmal in einen Topf mit einem gewissen Herrn gesteckt zu haben.
Ab bitte, drück Dich doch dann bitte so klar aus, dass dies gleich ersichtlich ist...
(ich weiß, ich bin da selbsr nicht gerade ein leuchtendes Beispiel ;-)
Bis denne und nix für ungut
Razor
Razor
2003-04-30, 15:15:18
Originally posted by Ikon
Ich finde es schon etwas seltsam, ständig Fragen mit der Intention zu stellen, dass der/die andere(n) schon irgendwann keine Lust mehr zum antworten haben wird/werden, nur dass Mr. Razor dann seine offensichtlich nicht-fundierte Sichtweise als Tatsache propagieren kann. Bitte verschaff' dir erstmal einen Überblick über ein Thema bevor du wild durch die Gegend spekulierst.
Und ich finde es sehr schade, dass auch Du es offensichtlich nicht zustande bringst, einfach mal zu zustimmen, auch wenn Du sonst vielleicht nicht meiner Meinung bist. Und glaube mir, mir geht es sicher nicht darum, dass Dir oder sonst wem schon irgendwann die Lust vergeht zu antworten. Das Gegenteil ist eher der Fall. So bist Du doch in Deinem letzten Post sogar meiner Argumentation gefolgt, auch wenn Du auf den Post von Quasar reagiertest und nicht auf einen von meinen (das reimt sich ;-).
Was ich damit sagen will: Offesichtlich macht es bei Dir einen großen Unterscheid, wer hier was sagt und dementsprechend reagierst Du.
Findest Du das in Ordnung ?
???
Denk mal darüber nach...
Razor
Originally posted by Razor
Und wenn dem so ist, stimme ich Dir zu 100% zu und kann nur bestötigen, dass es möglich ist, aber nicht so sein muß ! So ist es also auch möglich (wie Du ja auch selber vermutest), dass dieses also überhaupt keinen nennenswerten Einfluß auf die Lebensdauer des Chips hat. Und um nichts anderes ging es mir...
Nun, das "kann" war wiederum meinerseits etwas doof gewählt. Eine negative Beeinflussung der Lebensdauer des Chips ist ist bei relativ höheren Betreibstemperaturen definitiv immer da (insoweit ist "kann" falsch). Aber, wie ich danach schrieb, bin ich der Meinung dass diese nicht wirklich signifikant ist.
Razor
2003-04-30, 15:23:48
Originally posted by Ikon
Nun, das "kann" war wiederum meinerseits etwas doof gewählt. Eine negative Beeinflussung der Lebensdauer des Chips ist ist bei relativ höheren Betreibstemperaturen definitiv immer da (insoweit ist "kann" falsch). Aber, wie ich danach schrieb, bin ich der Meinung dass diese nicht wirklich signifikant ist.
Um nichts anderes ging es hier in diesem Thread...
"Ist dies nun ein 'echtes' Problem, oder eher nur 'unschön' ?"
Auch hatte ich Dir mehrfach folgende Frage gestellt:
"Wie lange 'lebt' ein NV30 mit diesem Prob' ?
Wie lange 'lebt' ein NV30 ohne dieses Prob' ?"
Und Du hast nie direkt geantwortet, bis jetzt, denn nun ist nicht mehr 'signifikat', grob übersetzt also 'uninteressant/unerheblich'.
Payne behauptet hier aber noch immer etwas anderes...
(was für seine Auffassungsgabe spricht ;-)
Aber sei's drum.
Razor
Originally posted by Razor
Was ich damit sagen will: Offesichtlich macht es bei Dir einen großen Unterscheid, wer hier was sagt und dementsprechend reagierst Du.
Findest Du das in Ordnung ?
Denk mal darüber nach...
Nun, jeder ist selbst für Art und Inhalt seiner Postings hier verantwortlich. Mit dem daraus resultierenden "Image" muss er dann aber auch leben, und mit der Art, wie er aufgrund dessen von den anderen Usern behandelt wird. Ob ich diesen Sachverhalt gut finde, ist wieder ein anderes Thema ;)
perforierer
2003-04-30, 15:37:39
Leute, entspannt euch mal. :)
StefanV
2003-04-30, 21:11:26
Originally posted by perforierer
zu 1. Es ging um die Aeolus, weil Razor die 5200 von Aopen erwähnte. Ich wollte damit nur sagen, dass die Aopen gut gemacht sind.
zu 2. Keine Ahnung, was Du damit sagen willst, falls es Ironie sein soll sehe ich den Sinn für Ironie hier nicht. :)
zu 3. Das sehen wir wohl alle so, es ging aber darum, dass Razor ja ne 5200er zum "Spass" sucht mit 128 MB. Weiss ich, wieviel Geld er dafür ausgeben will?
1. naja, gibt halt nicht nur die Aopen, die gut sind :)
Meine Prolink mit 4ns SAMSUNG RAM lief z.B. auf 300MHz RAM Takt, weiter bin ich nie gegangen :)
2. das war völlig ironisch gemeint :)
Ein passiv Kühler ist für mich normalerweise ~45x45x10mm groß (Savage 2000), das was auf der FX5200 drauf ist ist riesig, das würde locker für 'ne GF3 TI200 langen, eventuell sogar noch für mehr...
3. mir leuchtet der Sinn der FX5200 nicht wirklich ein, zumal es andere Karten gibt, die eigentlich besser und billiger sind.
Und auch unter Longhorn laufen ziemlich alle Karten recht gut, auch eine Matrox G550...
Quasar
2003-04-30, 21:19:35
Originally posted by Ikon
Nun, lebensdauerverlängernd kann eine relativ hohe Temperatur auch nicht sein. Mein Einwurf bezüglich Elektromigration (viele Seiten weiter vorne) war auch keineswegs als Hinweis auf eine akute Gefahr gedacht, sondern eben nur als Hinweis am Rande, dass sich so eine Betreibstemperatur negativ auf die Lebensdauer auswirken kann (wobei ich selbst bezweifele, dass deren Beeinflussung wirklich signifikant ist).
(Daher verstehe ich auch nicht so ganz, warum Razor das so "aufplustert".)
Von verlängernd spreche ich auch gar nicht erst. Nur woher will SP wissen, bei wievielen °C die normale Lebensdauer eines nV30 eintritt?
Schön, wenn er bei konstant 75°C und weniger 178 Jahre hält. Wayne ausser Payne... *scnr*
perforierer
2003-04-30, 21:30:24
@Stefan Payne:
Klar, der Sinn leuchtet mir au net ein, er wollte ja nur eine zum mit rumspielen, also austesten etc.
Naja, passiv ist passiv... :)
StefanV
2003-04-30, 21:33:00
Originally posted by Quasar
Schön, wenn er bei konstant 75°C und weniger 178 Jahre hält. Wayne ausser Payne... *scnr*
...schön, wenn der Chip theoretisch bei 75°C 178 Jahre hält...
...dumm nur wenn die Widerstände, Kondensatoren, Spulen und sonstigen Bauteile auf der Karte das nicht schaffen...
Bei meiner Parhelia ist der Chip auch nicht abgeraucht sondern ein Spannungsregler, der vermutlich an übermäßiger thermischer Belastung verreckt ist...
Demirug
2003-05-01, 00:32:15
Passivekühler ->
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=68614
Quasar
2003-05-01, 16:54:52
Originally posted by Stefan Payne
...schön, wenn der Chip theoretisch bei 75°C 178 Jahre hält...
...dumm nur wenn die Widerstände, Kondensatoren, Spulen und sonstigen Bauteile auf der Karte das nicht schaffen...
Bei meiner Parhelia ist der Chip auch nicht abgeraucht sondern ein Spannungsregler, der vermutlich an übermäßiger thermischer Belastung verreckt ist...
Tut mir leid für dich SP, wenn Matrox solch minderwertige Bauteile verwendet.
Was die FX angeht: Zum hundertsten Mal, 105°C sind die ChipKERNtemperatur, nicht die Temperatur der Karte, ihrer kompletten Bauteile, des AGP-Slots oder des Weckers, der auf dem Nachttisch daneben steht.
Razor
2003-05-01, 20:27:28
Originally posted by Ikon
Nun, jeder ist selbst für Art und Inhalt seiner Postings hier verantwortlich. Mit dem daraus resultierenden "Image" muss er dann aber auch leben, und mit der Art, wie er aufgrund dessen von den anderen Usern behandelt wird. Ob ich diesen Sachverhalt gut finde, ist wieder ein anderes Thema ;)
Es geht aber nicht um "andere User", sondern um Dich.
Razor
Razor
2003-05-01, 20:31:02
Originally posted by Stefan Payne
3. mir leuchtet der Sinn der FX5200 nicht wirklich ein, zumal es andere Karten gibt, die eigentlich besser und billiger sind.
Und auch unter Longhorn laufen ziemlich alle Karten recht gut, auch eine Matrox G550...
Nun ja, ich habe jetzt schlicht den 'Beweis', dass sich direkte DX-Unterstützung durchaus auf das Arbeiten mit 08/15 auswirkt... zumindest mit 'ner 5200 und den 43.45.
:D
Und das Dir der Sinn einer 5200 nicht offenbar wird, ist natürlich absolut nachvollziehbar:
"Sie ist von nVidia !"
;D
In diesem Sinne
Razor
LovesuckZ
2003-05-01, 20:49:53
Originally posted by Razor
Und das Dir der Sinn einer 5200 nicht offenbar wird, ich natürlich absolut nachvollziehbar:
"Sie ist von nVidia !"
;D
In diesem Sinne
Ob Stefan fuer die 9200 einen Sinn finde :D
*gong*
Die Passagiere von Flug 4345 nach Santa Clara, Kalifornien mögen bitte das flamen einstellen - sie stören ihre Mitreisenden ... danke.
*gong*
Razor
2003-05-01, 22:52:46
Originally posted by Ikon
*gong*
Die Passagiere von Flug 4345 nach Santa Clara, Kalifornien mögen bitte das flamen einstellen - sie stören ihre Mitreisenden ... danke.
*gong*
Welche 'Mitreisenden' ?
???
Und irgendwie stören Deine Posts dieser Art auch ein wenig...
;-)
Razor
StefanV
2003-05-01, 23:03:47
Originally posted by Ikon
*gong*
Die Passagiere von Flug 4345 nach Santa Clara, Kalifornien mögen bitte das flamen einstellen - sie stören ihre Mitreisenden ... danke.
*gong*
:rofl:
Ikon, der war jetzt aber fies.
PS: was ist in Santa Clara außer Intel ?? :naughty:
Frank
2003-05-01, 23:25:53
Originally posted by Razor
Welche 'Mitreisenden' ?
???
Und irgendwie stören Deine Posts dieser Art auch ein wenig...
;-)
Razor Eben!! Eigentlich gehts doch um irgendwelche Treiber für die Geforce FX, oder? Also bitte alle Threadthema nochmal lesen und evtl posten wenn jemand was sinnvolles beizutragen hat.
Waren denn gut acht Seiten Geflame nicht genug in diesem Thread?
Razor
2003-05-04, 00:04:33
Originally posted by Ikon
Waren denn gut acht Seiten Geflame nicht genug in diesem Thread?
Offenbar nicht, wenn zumindest immer noch einer hier der Meinung ist, dass es sich bei dem Problem (Threadthema) um ein wirklich ernst zu nehemendes handelt.
Razor
??? Wer macht denn sowas ???
Powermike
2003-05-04, 00:25:46
Originally posted by Ikon
*gong*
Die Passagiere von Flug 4345 nach Santa Clara, Kalifornien mögen bitte das flamen einstellen - sie stören ihre Mitreisenden ... danke.
*gong*
Möglicherweise bezeiht sich das auf mein Posting, das offenbar von irgendeinem übereifrigen *schweresschimpfwortgelöscht* Moderator gelöscht wurde. So eine Zensur kann ich auf den Tod nicht ausstehen!!!!!
Razor
2003-05-04, 02:06:01
Originally posted by Ikon
??? Wer macht denn sowas ???
Na ja...
Originally posted by Stefan Payne
...schön, wenn der Chip theoretisch bei 75°C 178 Jahre hält...
...dumm nur wenn die Widerstände, Kondensatoren, Spulen und sonstigen Bauteile auf der Karte das nicht schaffen...
Bei meiner Parhelia ist der Chip auch nicht abgeraucht sondern ein Spannungsregler, der vermutlich an übermäßiger thermischer Belastung verreckt ist...
Ist übrigens auf dieser Seite ;)
Er hört einfach nicht auf und das, obwohl das Thema eigentlich abgehakt ist...
Und dann wundert er sich auch noch, dass man dann auf seine Anspielungen empfindlich reagiert.
Na ja, aber vielleicht reicht's ihm ja jetzt. Selbst im GraKa-Forum macht man sich schon darüber lustig und er muss sich den Unterschied zwischen Kern- und Aussentemperatur um die Ohren heuen lassen... den er mit Sicherheit auch kennt. Aber er ist ja noch immer der Meinung, dass irgendetwas bei solchen Kern-Temperaturen (die nur absolute Spitzenwerte sind) leidet...
Aber leiden tun hier nur andere...
Bis denne
Razor
StefanV
2003-05-04, 02:10:33
Razor, was meinst du denn, wie groß der Unterschied zwischen Kern und Außen Temperatur ist ??
10°C, 20°C ??
Oder gar 50°C ??
Ich glaube kaum, daß die verbauten Kondensatoren 85°C sonderlich gern haben, eventuell auch noch mehr.
Auch scheint dir der Chip Test fremd zu sein, wo die AUSSENtemperatur, gemessen an der Rückseite der Karte, auf 94°C war, bevor sie den Test abgebrochen haben...
Frank
2003-05-04, 02:14:55
Originally posted by Powermike
Möglicherweise bezeiht sich das auf mein Posting, das offenbar von irgendeinem übereifrigen *schweresschimpfwortgelöscht* Moderator gelöscht wurde. So eine Zensur kann ich auf den Tod nicht ausstehen!!!!!
vollkommen falsch. Zu dieser Zeit hab ich den Thread beobachtet. Also kein Grund für irgendeine Unterstellung derart.
und @ Kerntemperaturfreunde
entweder ihr macht einen neuen Thread auf oder ich mach mir die eklige Arbeit alles rauszusplitten. Ansonsten bitte ich die beidne letzten Poster sich in diesen Thread aufs Thema einzupendeln.
StefanV
2003-05-04, 02:14:56
Originally posted by Chip.de
Wir brachen das Experiment bei 95 Grad Außentemperatur am Kühlkörper (!) ab (siehe Bild oben) -
http://www.chip.de/news/c_news_10407649.html
Quasar
2003-05-04, 02:29:50
Ist bekannt, Stefan Payne.
Und jetzt bitte noch die Spezifikationen der Bauteile, die einer solchen Temperatur bei der von Chip verwandten Karte nicht gewachsen sind?
Weils so schön ist...
Originally posted by Xmas
Wunderbar, ich lasse auch 15 Monate den Bildschirmschoner laufen...
perforierer
2003-05-04, 09:21:27
Schon erstaunlich, wohin so ein Thread führt. Bzw. wohin auch nicht...
Originally posted by Quasar
Ist bekannt, Stefan Payne.
Und jetzt bitte noch die Spezifikationen der Bauteile, die einer solchen Temperatur bei der von Chip verwandten Karte nicht gewachsen sind?
Ja, die wuerde ich auch gerne wissen.
Und btw. hab ich auf keiner meiner Grakas (Kyro, Radeon, GF2/4) einen Elko gefunden, der fuer weniger als 105 Grad spezifiziert ist.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.