PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 70 Grad im Normalbetrieb!


FallingDown
2007-09-28, 15:15:43
Hallo Leute von heute!

Habe mir soeben ein Temeraturüberwachungstool direkt von Nvidia runtergeladen. Und da werden mir gerade 73 Grad angezeigt. Das kann doch nicht normal sein, oder? Im Normalbetrieb!!!

Das ist eine Gefore 8800 GTX von MSI!

In einem ganz gut belüfteten Big-Tower. Alle KAbel sorgfältig verlegt und n ichts übertaktet. Vielleicht sind die Temperaturen ja normal heutzutage. Zu Gefore 6 Zeiten, waren so 55-60 Grad normal.

Kann mir jemand mal die Angst vorm Hitzetod nehmen?

Gast
2007-09-28, 15:34:39
Keine Bange, Werte zwischen 65 und 75 Grad sind durchaus normal bei diesen Karten, meine GTX@Idle liegt auch immer im niedrigen 70er Bereich.

Super Grobi
2007-09-28, 15:46:15
In dem andern Thread von dir, wurde dir ein Link zum nachlesen gepostet. Wenn du den gelesen hättest, wüsstest du die Antwort.

SG

FallingDown
2007-09-28, 16:01:46
Hast Recht! Ich habe hier bloss voll die Panik geschoben. Nächstes Mal pass ich nen bisschen auf.

Super Grobi
2007-09-28, 16:05:25
Hast Recht! Ich habe hier bloss voll die Panik geschoben. Nächstes Mal pass ich nen bisschen auf.

Kein Problem. Sollte auch nur dazu dienen, das nicht das, was shcon dort steht, hier nochmal durchgekaut wird.

SG

Gast
2007-09-28, 18:57:45
70 Grad ist viel zu heiss im idle, die Karte hält ned lange!

Gast
2007-09-28, 19:32:13
70 Grad ist viel zu heiss im idle, die Karte hält ned lange!
Quatsch, der Karte macht das nix aus. Die Temperatur würde mich nur bzgl. der Stromrechnung nerven. Der Kühler ist ja nicht gerade schlecht und wird trotzdem im Idle schön erwärmt. Da wird also gut Energie verbraten.

KinGGoliAth
2007-09-28, 21:42:22
meine 8800 gts 640mb hat gerade trotz übertaktung 55°C im idle.

problematisch sind deine 73°C noch lange nicht aber vielleicht solltest du mal an deiner gehäusebelüftung arbeiten.

70 Grad ist viel zu heiss im idle, die Karte hält ned lange!
wenn ich jedes mal einen euro bekommen würde wenn ich unsinn lesen muss...

master_blaster
2007-09-28, 21:50:34
problematisch sind deine 73°C noch lange nicht aber vielleicht solltest du mal an deiner gehäusebelüftung arbeiten.


Scheinbar hat auch jede GTX/GTS/Ultra andere Temperaturen als ein Komplementäres Modell. Meine Ultra hat im Idle z.B. max. 58C. Liegt natürlich auch an den 7 Gehäuselüftern, aber es gibt da auch 'ne logische Erklärung für. HardwareLUXX argumentiert da so: Die meinen, dass bei G80s einfach der Heatspreader schief, oder zumindest anders als bei anderen G80s, aufliegt und so jeder G80 in Bezug auf seinen Heatspreader ein Unikat ist. Das trifft natürlich auf jeden (Grafik)Prozessor mit Heatspreader zu, aber hier eben so stark, dass es sich in den Temperaturen niederschlägt.

Super Grobi
2007-09-28, 22:15:28
@FallingDown

Siehste du, geht schon los. Ist so ein Thema, wie die Auslagerungsdatei. Wurde auch schon geschätze 95864 mal besprochen, aber immer wieder von neu diskutiert mit immer den selbern Fakten und dem selben Ergebniss ;)

Fakt:
- Lüfter der 8800 ist Temp gesteuert. Man kann also 36 Lüfter im Gehäuse haben, die Temp der GPU wird IMMER recht hoch sein, da der Lüfter der Graka dann einfach niedriger dreht was zu --->
-führt. Der Lüfter der 8800 wird erst so ab 80°C "nervös". Erst ab da, hebt die Lüftersteuerung in winzigen Schritten die Drehzahl an, (minimum 60%) um die GPU so bei ca. 80°C zu halten.
- Die ganze Karte ist für ganz andere Temps gebaut und lacht sich über die immer bejammerten Temps kaputt! (wenn sie lachen könnte ;))
- Wer mehr wissen will, soll BITTE die SuFu nutzen und das alles nachlesen

@Mod
close plz

SG

Lawmachine79
2007-09-29, 22:12:29
@FallingDown

Siehste du, geht schon los. Ist so ein Thema, wie die Auslagerungsdatei. Wurde auch schon geschätze 95864 mal besprochen, aber immer wieder von neu diskutiert mit immer den selbern Fakten und dem selben Ergebniss ;)

Fakt:
- Lüfter der 8800 ist Temp gesteuert. Man kann also 36 Lüfter im Gehäuse haben, die Temp der GPU wird IMMER recht hoch sein, da der Lüfter der Graka dann einfach niedriger dreht was zu --->
-führt. Der Lüfter der 8800 wird erst so ab 80°C "nervös". Erst ab da, hebt die Lüftersteuerung in winzigen Schritten die Drehzahl an, (minimum 60%) um die GPU so bei ca. 80°C zu halten.
- Die ganze Karte ist für ganz andere Temps gebaut und lacht sich über die immer bejammerten Temps kaputt! (wenn sie lachen könnte ;))
- Wer mehr wissen will, soll BITTE die SuFu nutzen und das alles nachlesen

@Mod
close plz

SG
Kann ich bestätigen, egal wie sehr ich übertakte oder was ich spiele, die wird NIE über 83° warm, aber die 83° erreicht sie sehr schnell und hält sie dann auch konstant.

ZipKaffee
2007-09-30, 00:31:44
So ist es und jetzt closen...

Gast
2007-09-30, 10:33:23
80 Grad sind tödlich, kein Wunder dass GPUs alle nach 2-3 Jahren kaputt sind, CPUs aber ohne Probleme 10 Jahre und mehr halten.

Voyager
2007-09-30, 10:48:28
80 Grad sind tödlich, kein Wunder dass GPUs alle nach 2-3 Jahren kaputt sind, CPUs aber ohne Probleme 10 Jahre und mehr halten.


LOL

close plz

Gast
2007-09-30, 11:54:21
Da kannst du lange LOLen, es ist so.

Riplex
2007-09-30, 12:25:18
Da kannst du lange LOLen, es ist so.

Also ich hab ne GPU die schon 4 Jahre alt ist und noch nicht kaputt ist.
Dafür ist mir eine CPU von AMD nach 1 Jahr abgeraucht. Und nu ?

Gast
2007-09-30, 12:36:11
Einzelfälle haben keinerlei Aussagekraft, es geht hier um Statistik.

misterh
2007-09-30, 13:14:06
Einzelfälle haben keinerlei Aussagekraft, es geht hier um Statistik.

laber nicht so ein shit.

aber 70° im Idle ist viel.

Razor
2007-09-30, 16:29:30
Selbstverständlich sind 70° idle zu viel... viel zu viel... genauso wie 65W und mehr.
Der G80 ist einfach alpha...

Aber die Scheuklappenmentalität hier ist einfach unbeschreiblich... 'normal'.
Und so sind es Temps, wie Verbrauch eben auch.

Wenn man sich diesen Unfug oft genug einhämmert, muss man wohl daran 'glauben'...
Aber vermutlich 'glauben' die gleichen Leutz auch, dass es immer weniger Arbeitslose gibt - nur steht das auf einem ganz anderen Blatt.

Razor

Gast
2007-09-30, 16:35:48
Selbstverständlich sind 70° idle zu viel... viel zu viel... genauso wie 65W und mehr.
Der G80 ist einfach alpha...

Und was war dann G71? Reißbrett?

Mal sehen, was mir so einfällt:
- unnatürlich hohe Chip-Sterberate
- kaputte Referenzlüftersteuerung (GT)
- mieses Watt/Transistor-Verhältnis

Razor
2007-09-30, 16:42:12
So einen Quatsch habe ich schon lange nicht mehr gelesen.
Ich bin vor Lachen fast vom Stuhl gefallen!
Danke dafür...
:up:

"Watt/Transistoren-Verhältnis"... heeerlich!
;D

Die Verkaufszahlen haben fast jeden Rekord gebrochen, absolut gingen so auch die Retouren hoch.
Eine unnatürliche Ausfallquote gab es allerdings zu keiner Zeit...

Und der Lüfter der GT war einfach nur 'billig' und auch sonst vollkommen unbrauchbar.
Fehler hatte das Design des Chips aber keine... und so alpha, wie es der G80 ist, gab es auch noch keinen...

Razor

KinGGoliAth
2007-09-30, 16:59:31
wie gesagt:
einen euro....schön wärs.

eigentlich hat hier ja auch schon lange keiner mehr zum closen aufgefordert. :ugly2:

Gast
2007-09-30, 18:26:58
"Watt/Transistoren-Verhältnis"... heeerlich!


Was erwartest du denn? Daß rund 400M zusätzliche Transistoren keinen zusätzlichen Strom verbrauchen? "Leckströme" sagt dir was?

Gast
2007-09-30, 18:29:42
Die Verkaufszahlen haben fast jeden Rekord gebrochen, absolut gingen so auch die Retouren hoch.
Eine unnatürliche Ausfallquote gab es allerdings zu keiner Zeit...

21,5 % Defektquote finde ich selbst für eine solche Umfrage ziemlich hoch:
http://forum-3dcenter.de/vbulletin/showthread.php?t=298043

Aber wenn das für dich normal ist...

Gast
2007-09-30, 18:30:38
Fehler hatte das Design des Chips aber keine... und so alpha, wie es der G80 ist, gab es auch noch keinen...
Na, da haben wir doch endlich die Kernaussage: Welche Fehler hat denn das Design des G80-Chips?

Fehler, nicht Eigenschaft, die dir zufälligerweise nicht gefallen.;D

Razor
2007-10-01, 06:21:34
wie gesagt:
einen euro....schön wärs.
Einen Euro, wenn jemand die Wahrheit sagt?
Hätte ich auch gerne... obwohl ich dann vermutlich verarmen würde, müsste ich dafür meinen Job aufgeben.

Was erwartest du denn? Daß rund 400M zusätzliche Transistoren keinen zusätzlichen Strom verbrauchen? "Leckströme" sagt dir was?
Sorry, aber Dein Post sagt mir überhaupt nichts.
Versuch am besten einfach mal von vorne anzufangen... nur ein Tip.

Aber wenn das für dich normal ist...
Wenn solche Umfragen für Dich die Realität repräsentieren...
Ich habe übrigens nicht teil genommen und meine 7900GT ist heil - natürlich.
(wenn ich recht entsinne ;-)

Klar dass sich die Leutz 'aufregen', die ein Problem haben.
Rückschlüsse lassen sich aber ausschließlich beim (Groß-)Händler ziehen.

Razor

Razor
2007-10-01, 06:22:07
Welche Fehler hat denn das Design des G80-Chips?
Anderer Thread...

Gast
2007-10-01, 11:48:41
Sorry, aber Dein Post sagt mir überhaupt nichts.
Versuch am besten einfach mal von vorne anzufangen... nur ein Tip.

Na gut, ich versuch's mal, damit du mir folgen kannst.

Du behauptest, der G80 verbrauche unter 2D wesentlich mehr Strom (ich weiß, Strom wird nicht "verbraucht"…) als G7x ohne dabei mehr (nutzbares für den Anwender) zu leisten - richtig?

Ich bestreite das nicht, aber sage, dass das Watt/Transistor-Verhältnis beim G80 gar nicht so übel, sogar besser als beim G71, ist.

Du willst/kannst das nicht verstehen und machst dich folgerichtig darüber lustig, anstatt nachzufragen "Watt/Transistoren-Verhältnis"... heeerlich!

Ich bin so nett und erkläre es dir Was erwartest du denn? Daß rund 400M zusätzliche Transistoren keinen zusätzlichen Strom verbrauchen? "Leckströme" sagt dir was?

Du gibst vor, mich nicht zu verstehen. Also nochmal langsam:

Schritt 1:
G71 = wenig Watt idle, ~270M Transistoren
G80 = mehr Watt idle, ~681M Transistoren

Schritt 2:
681M-279M=402M

Schritt 3:
GF7950 GT (http://www.xbitlabs.com/images/video/geforce7950gt/7950gt_power.gif) und 8800 GTX sowie GTS/640 (http://www.xbitlabs.com/images/video/msi8800gts-640/nx8800_power.gif)
GF7950 GT:
2D-Idle: 25,8 Watt
2D-Peak: 37,3 Watt
3D-Load: 61,1 Watt

GF8800GTS/640:
2D-Idle: 57,5 Watt
2D-Peak: 71,1 Watt
3D-Load: 105,7 Watt

GF8800GTX/768:
2D-Idle: 70 Watt
2D-Peak: 83,3 Watt
3D-Load: 131,5 Watt

Schritt 4:
GTS - 7950:
2D-Idle: 57,5 - 25,8 = +31,7 Watt (+123%)
2D-Peak: 71,1 - 37,3 Watt = +33,8 Watt (+91%)
3D-Load: 105,7 - 61,1 = +44,6 Watt (+73%)

GTX-7950:
2D-Idle: 70 - 25,8 = +44,2 Watt (+171%)
2D-Peak: 83,3 - 37,3 Watt = +46 Watt (+123%)
3D-Load: 131,5 - 61,1 = +70,4 Watt (+113%)

Zur Erinnerung:
G80-G71: 681M - 279M = 402M (+144%)
dazu noch 50% mehr und höher taktender RAM bei der GTX.

Schritt 5:
(jetzt wird's schwierig: Transferleistungen ;))


-Die 7950 GT ist nicht das 7900er-Spitzenmodell, das ist die GTX. Die habe ich aber mal rausgelassen, da ich keine Leistungswerte für die Ultra gefunden habe. Da sähe es mit Werten von 31,2/51,5/84,2 Watt absolut; +38,8/+19,6/+47,3 Watt und +124/+62/+56% für 2D idle/2D peak/3D load noch schlechter für den G71 aus.

- Wir haben 144% mehr Transistoren und bis zu 50% mehr und höher taktendes RAM bei der GF8

- Wir haben (123+171)/2= 147% durchschnittlich höhere Leistungsaufnahme im 2D-Idle.

- Wir haben (91+123)/2= 107% durchschnittlich höhere Leistungsaufnahme im 2D-Peak

- Wir haben (91+123)/2= 93% durchschnittlich höhere Leistungsaufnahme im 2D-Peak

- Wir haben keinen 2D-Downclock-Modus bei der GF8. Manuell gemessen spart das etwa nochmal zusätzliche 20 Watt (bei mir).


Fazit:
Unterm Strich bleiben 2% mehr 2D-Idle-Leistungsaufnahme im Vergleich zur um +144% höheren Anzahl an Transistoren und (im Schnitt) 192 MiB zusätzliches VRAM.

In allen anderen Betriebsmodi liegt die zusätzliche Leistungsaufnahme weit unter dem plus an Transistoren - selbst wenn ich keinen Durchschnitt bilde, sondern nur die GTX zum Vergleich heranziehe.

Fazit für Razor:
Die Watt, die der G80 pro Transistor braucht, sind sogar in 2D ziemlich gut investiert. :D
Leckströme (http://de.wikipedia.org/wiki/Leckstrom) tragen nämlich auch einen guten Teil zur Leistungsaufnahme ohne Last bei. Und die darf nicht außer Acht gelassen werden, denn ansonsten müsste sich die 2D-Leistungaufnahme der 7900er-Reihe auch mit einer reinen 2D-Karte vergleichen lassen und würde die 7900 als wahrlich "Alpha" dastehen lassen.

Gast
2007-10-01, 11:51:06
Wenn solche Umfragen für Dich die Realität repräsentieren...
Klar dass sich die Leutz 'aufregen', die ein Problem haben.
Rückschlüsse lassen sich aber ausschließlich beim (Groß-)Händler ziehen.

Daher habe ich ja schon hinzugefügt "selbst für eine solche Umfrage"...


Ich habe übrigens nicht teil genommen und meine 7900GT ist heil - natürlich.
(wenn ich recht entsinne ;-)

:uclap: Großartig, das rückt natürlich sofort alles in ein anderes Licht…

Gast
2007-10-01, 11:51:52
Anderer Thread...
Du hast doch angefangen, das hier auch zu thematisieren. Warum läßt du es dann nicht außen vor, wenn du nicht drauf eingehen willst? Meinst', man glaubt dir einfach alles, weil du der "Razor" bist und dein Wort Gesetz?

Razor
2007-10-01, 20:02:28
Daher habe ich ja schon hinzugefügt "selbst für eine solche Umfrage"...
:uclap: Großartig, das rückt natürlich sofort alles in ein anderes Licht…
Sollte nur verdeutlichen, dass man solchen Umfragen einfach keines Blickes würdigen sollte.
Wenn alles läuft, wird halt nicht 'gemeckert'... oder eben an solchen Umfragen teil genommen.

Du hast doch angefangen, das hier auch zu thematisieren. Warum läßt du es dann nicht außen vor, wenn du nicht drauf eingehen willst? Meinst', man glaubt dir einfach alles, weil du der "Razor" bist und dein Wort Gesetz?
Du hast nach den Design-Problemen beim G80 gefragt und ich habe auf einen anderen Kontext verwiesen.
Was gibt es daran zu bemängeln?

Die hohe Temperatur im Idle liegt an der hohen Verlustleistung... und vice-versa... die wiederum auf andere Probleme zurück zu führen ist.
Mann kann eben nicht jedes einzelne Symtom separat betrachten... hier fehlt es schlicht am Kontext.

Nur soviel: 70° in Idle ist einfach viel zu viel.
Ganz egal, ob der Chip das ab kann, oder nicht...

Ich denke da primär an andere Komponeten im Rechner, wie Chipsatz und CPU, wie auch Festplatten & Co.
Warum sollte ich diese permanent einem solchen "Brutofen" aussetzen?

Im übrigen wird der G92 ein Single-Slot-Design... hochgradig interessant!
;)

Razor

Gast
2007-10-01, 21:52:26
Du hast nach den Design-Problemen beim G80 gefragt und ich habe auf einen anderen Kontext verwiesen.
Was gibt es daran zu bemängeln?
Ganz einfach: Weil du im anderen Thread auch jedwede Erklärung für deine "Tatsachen" schuldig bleibst.


Nur soviel: 70° in Idle ist einfach viel zu viel.
Ganz egal, ob der Chip das ab kann, oder nicht...
Meiner läuft gerade bei rund 54°C im Idle, meine Idle-Leistungsaufnahme liegt dabei 20 Watt höher, als mit der 7900 GTX - dafür habe in D3D10 (sorry, wenn du nichts damit anfangen kannst - ich kanns), erheblich bessere Bildqualität und dabei noch grob die doppelte Spieleleistung.

Im übrigen wird der G92 ein Single-Slot-Design... hochgradig interessant!
Wieso? Die meisten Performance-Mainstream-Karten sind Single-Slot - sogar bei ATI.

Gast
2007-10-01, 21:53:05
Oh, Razor:
Haste die Watt/Transistor-Rechnung jetzt eigentlich verstanden oder soll ich noch bunte Bildchen dazumalen?

Razor
2007-10-02, 04:42:27
Oh, Razor:
Haste die Watt/Transistor-Rechnung jetzt eigentlich verstanden oder soll ich noch bunte Bildchen dazumalen?
Soll ich Deine Darstellung nun einfach als "Schwachsinn" abtun, oder wollen wir es einfach dabei belassen?
Mann, mann, mann ist das hier ein Kindergarten.
:rolleyes:

Razor

Gast
2007-10-02, 08:14:35
Soll ich Deine Darstellung nun einfach als "Schwachsinn" abtun, oder wollen wir es einfach dabei belassen?
Mann, mann, mann ist das hier ein Kindergarten.
:rolleyes:

Razor
Du könntest auch einfach sagen, dass du es nicht verstehst. Dann könnte ich versuchen, es dir noch einfacher zu erklären.

Wenn du aber immer nur einfach über alles lachst was du nicht verstehst und gar nicht erst versuchst zu begreifen, verpasst du einiges im Leben. :)

Grindcore
2007-10-02, 09:57:28
Razors Argumentation folgt ausschließlich dem Satz in seiner SIG. Ich erinnere nur an die haarsträubende, sich über 20 oder mehr Seiten hinziehende "2Gb bringen nix!!11" Diskussion, die allein auf der Tatsache fusste, dass Mr. Heissluft 1,5Gb in seinem Rechner hatte und das als ausreichend erachtete. Selbiges erleben wir nun hier mit dem G80.

Diskussion überflüssig und komplette Energieverschwendung, die seiner Annahme, Irgendetwas von Bedeutung abzusondern, nur unnötig Nahrung gibt.

Aaah, jetzt gehts mir besser.

Gast
2007-10-02, 19:44:11
Nur so zum aufwärmen:
meine 8800 Ultra ist Idle 79 und unter Last ca. 87 Grad heiss. Laut Nvidia wirds erst über 98 kritisch für die Karte.

Razor
2007-10-02, 19:48:16
Wen interessiert die Karte?
Was ist mit dem Rest in Deinem Gehäuse?
:confused:

Razor

P.S.: für die anderen beiden wiederhole ich:

"Mann, mann, mann ist das hier ein Kindergarten.
:rolleyes:"

Super Grobi
2007-10-02, 20:07:24
@Razor
ich konnte nach dem Einbau meiner 8800gts nirgents feststellen, daß die Temp höher ist. Ich hab nun wirklich sogut wie jede gute ATI und NV Karte der letzten 24M im Einsatz gehabt.

Weder ist die Chipsatz- noch die CPU-Temeratur angestiegen. Auch ist mein Gehäuse nicht extrem belüftet, sonder wird von zwei 120er Lüftern gekühlt.

SG

p.s.
ich kann deine Abneigung gegen die 8800 nicht nachvollziehen. Das ein guter 2D-Modus fehlt, ist nichts neues, aber denoch ist die Karte super und wegen den 2d will ich bestimmt keine 7er Geforce mehr haben.

Razor
2007-10-02, 20:20:40
@ich kann deine Abneigung gegen die 8800 nicht nachvollziehen. Das ein guter 2D-Modus fehlt, ist nichts neues, aber denoch ist die Karte super und wegen den 2d will ich bestimmt keine 7er Geforce mehr haben.
Das mag für Dich ja zutreffen, für andere - besser: für mich - eben nicht.
Gibt halt zu viel, was mich an den G80 (wie auch den HD2900) stört... und ich bin nicht bereit, auch nur EINEN Nachteil bei einer Neuanschaffung in Kauf zu nehmen... nenn' es Prinzipen oder meinetwegen Stur- oder gar Dummheit.

Der 2D-Verbrauch schlägt dem Fass allerdings den Boden aus und damit verbunden die hohe Idle-Temp, die bei mir sehr wohl die Temps im Gehäuse gute 10° (unter Last mehr!) nach oben getrieben hat. Und da bei mir alles aufeinander abgestimmt und somit auf möglichst geringe Geräuschentwicklung getrimmt ist, stören die 'Neuen' eben richtig.

Ich bin mal gespannt, wie es um den G92 stehen wird...
Könnte mir gut vorstellen, dass DAS dann der 'richtige' G80 ist.

Razor

P.S.: 2 langsam drehende 12cm-Lüfter rein/raus, ein langsam drehender 12cm für den Scythe Ninja und VF-900cu@min für die GraKa in einem Antec P180 mit flüsterleisem 12cm Lüfter im Boden des NT.

dargo
2007-10-02, 20:42:29
Der 2D-Verbrauch schlägt dem Fass allerdings den Boden aus und damit verbunden die hohe Idle-Temp, die bei mir sehr wohl die Temps im Gehäuse gute 10° (unter Last mehr!) nach oben getrieben hat.
Auch wenn es dich eh nicht interessieren wird, meine G8800GTS 640 (ja, eine GTS ist auch ein G80) liegt momentan mit 200/200Mhz bei 45°C Coretemp. bei knapp 20°C Zimmertemperatur. Der Grakalüfter dreht dabei mit 54% (original sinds 60%). Das Gesamtgeräuch des Rechners aus ca. 0,5m ist kaum mehr wahrzunehmen. Wenns dir hilft - CPU Lüfter (120mm) dreht mit ca. 600RPM, 2x 80-er Gehäuselüfter laufen @7V praktisch nicht hörbar.

So, und jetzt verrate mir was an der GPU-Temp. zu hoch ist.

Gast
2007-10-02, 22:41:57
"Mann, mann, mann ist das hier ein Kindergarten.
:rolleyes:"
Dann benimm dich endlich wie ein Erwachsener, sodass wir mit dir ordentlich reden können; anscheinend verstehst du ja nur Kindergarten-Speak.

Gast
2007-10-02, 22:42:42
So, und jetzt verrate mir was an der GPU-Temp. zu hoch ist.
Ganz einfach: Die Zahl hinter dem G! ;D

Razor
2007-10-03, 04:55:51
Auch wenn es dich eh nicht interessieren wird...
Och... interessieren tut mich das schon.
Aber ich schrieb schon im anderen Thread: "Fummelkram".

So, und jetzt verrate mir was an der GPU-Temp. zu hoch ist.
Du meinst die vom Hersteller nicht supporteten und auf externe Tools - die nicht immer funktionieren - angewiesenen 200/200 mit ebenso einzuschätztenden 54% der Lüfterdrehzahl?

Nein danke!
Aber auch das hatten wir alles schon...

Razor

dargo
2007-10-03, 10:08:25
Och... interessieren tut mich das schon.
Aber ich schrieb schon im anderen Thread: "Fummelkram".

Den Fummelkram muss man doch eh nur einmal einstellen. :)


Du meinst die vom Hersteller nicht supporteten und auf externe Tools - die nicht immer funktionieren - angewiesenen 200/200 mit ebenso einzuschätztenden 54% der Lüfterdrehzahl?

Nein danke!
Aber auch das hatten wir alles schon...

Jetzt sag doch nicht einfach, dass es nicht funktioniert wenn du keinen G80 hast. Es funktioniert afaik bei jedem. Mancheiner (beim Multi-Display) muss eventuell in 2D die Taktraten etwas anheben.

Übrigens - mit den standard 513/792Mhz und 60% Lüfter komme ich nicht über 53°C GPU.Temp.

Razor
2007-10-03, 10:51:45
Den "Fummelkram" muss man bei JEDEM Games einmal einstellen... oftmals 'passen' die von nVidia vorgegebenen Profile nicht und man muss 'nachjustieren' und ist hier auf andere Nutzer oder eben eigene Interventionen angewiesen.

Und was die mit RT erzwungenen 'niedrigen' Takte angeht... dazu habe ich mich anderweitig reichlich ausgelassen, zumal ich dieses sehr wohl in eigener Person nachvollziehen kann... wenn ich will. Derzeit habe ich tatsächlich keinen G80 zu hause, was aber jederzeit geändert werden kann, wenn ich mal was gegen checken möchte.

Und ja, völlig korrekt, KAUFEN würde ich mir diesen Mist ganz sicher NIEMALS!
:D

DualMon und G80 steht im übrigen noch auf einem ganz anderen Blatt... ist hier aber nicht das Thema.

Razor

dargo
2007-10-03, 10:56:00
Den "Fummelkram" muss man bei JEDEM Games einmal einstellen... oftmals 'passen' die von nVidia vorgegebenen Profile nicht und man muss 'nachjustieren' und ist hier auf andere Nutzer oder eben eigene Interventionen angewiesen.

Von welchem Fummelkram sprichst du? Ich meine meine RT-Anleitung. Was meinst du?

vobri
2007-10-07, 00:56:11
N'abend !

Zufällig bin ich gerade auf dieses doch recht interessante Thema gestoßen und möchte da auch noch was zu sagen !

Das eigentliche Problem ist doch, daß die Anforderungen an die Grafikkarte je nach Anwendungsbereich immer weiter auseinander driften. Für kommende grafisch sehr aufwendige Spiele wie z.B. Crysis werden eben aktuelle High-End-Karten benötigt, die dann leider sowohl im 2D- als auch im 3D-Betrieb viel Strom in Wärme verwandeln, während fürs Surven im Internet oder im Officebereich auch ne Nvidia-TNT-Karte völlig ausreichen würde......

Ich selbst verbringe mehr Zeit mit Surven als mit zocken. Daher würde auch ich mich - wie Razor - über unnötig hohen Stromverbrauch / Wärmeentwicklung im 2D grämen. Auch laute und sperrige Kühler sind nicht gerade erbaulich ! Ich hab aber bisher nur ne Mainstream 7600GT.......

Wie soll es zukünftig weitergehen ? Wären z.B. zwei Grakas - eine für 2D und eine für 3D - die im 2D abschaltet - im PC sinnvoll ? Das hatte ich früher mal.....mit ner 3dfx Voodoo1 :biggrin: ! Oder ne Graka mit Dualcore - einer für 2D und einer für 3D ?

Der aktuelle 2D-Betrieb bei der Geforce 88xx ist jedenfalls unbefriedigend.

MfG Vobri

dargo
2007-10-07, 15:30:32
Das Zauberwort heißt wohl demnächst Hybrid-SLI. Schmeiß mal die SuFu an. :)