PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Weshalb viele Systeminfo-Tools falsche CPU-Temperaturen anzeigen


Avalox
2008-08-23, 05:24:47
Ein wirklich interessanter kurzer Artikel.

Falsche CPU Temperatur Werte - (und der Hintergrund dazu).

http://www.heise.de/newsticker/IDF-Weshalb-viele-Systeminfo-Tools-falsche-CPU-Temperaturen-anzeigen--/meldung/114656

L.ED
2008-08-23, 08:23:45
Ich Frage mich wirklich was solches gebaren soll, auf dem ersten Blick dient es doch nur um Verschleierung, Anwender in Unwissenheit zu baden und Testern das objektive betrachten schwer zu machen (Idealfall eben diese gleichsam auch zu Täuschen und mit höchsten Noten davon zu kommen = Mission erfüllt)? ^^

Mit so einer (hinterm Berg gehaltenen), Technologie und oder bzw. Herangehensweise ließe sich auch leicht noch anderes kaschieren (weiterführend gedacht), das eben womöglich jeweils CPU so und so in der Masse am Ende doch nicht solch Übertaktungswunder!? Der gemeine User das aber nicht bemerken kann (wenn die CPU ggf. dann auto Interna gedrosselt), da er dieses an mehr Leistung im vollen Umfang sowieso (noch) nicht benötigt und außerhalb von Test Umgebungen der Hintergrund zumeist nicht mehr gegeben um solches Verifizieren zu können.

Sorgt aber alles zusammen für einen allgemein besseren Ruft und ebenso guter Mundpropaganda.

Avalox
2008-08-23, 09:18:41
Sorgt aber alles zusammen für einen allgemein besseren Ruft und ebenso guter Mundpropaganda.


Na ja. Vielleicht hat der Kommentar Antworter auch einfach nur Recht, wenn er schreibt "Das Verfahren ist damit einfach nur patentierbar.".

Aber im Prinzip schon richtig. Man kann feststellen, dass Intel es scheinbar nicht möchte, dass die Temperatur von Desktop Prozessoren generell absolut gemessen werden kann.

L.ED
2008-08-23, 09:32:12
Möglich aber es wirft dennoch ein unschönes Licht.

Und wieso muss man überhaupt jeden Furz patentieren wollen oder es gar müssen, finde das System gehört dahingehend einmal grundlegend überarbeitet, gerade auch in den USA (aber nuja das sei mal dahingestellt).

Davon aber einmal ab, könnte man das ja dennoch gleich zu Anfang vernünftig Dokumentieren und das dann auch für seine gesamte Produktplette.

Da dessen aber auch im Nachhinein offenbar nur selektiv geschieht(?), drängen sich andere Überlegungen unweigerlich auf.

NikLaw
2008-08-23, 09:49:28
Ist es nicht auch verwunderlich, das Intel keine wirklichen Extreme Editions ihrer CPUs rausbringt, z.B. den E8400 als 4 Ghz Variante, für die, die vom Übertakten die Finger lassen wollen? Man kann ja die Prozessoren vorher testen.

Das wäre doch gegenüber AMD ein ungeheurer Marketingvorteil: Seht her wir haben als einzige eine 4 GHZ CPU!

Demnach sind also die Bios Temperaturen auch hinfällig. Bei mir liegen zwischen CoreTemp und Bios 10 C.

pest
2008-08-23, 09:58:30
also wenn TjMax 100° bei der E8000 und E7000 Reihe beträgt, liegt Realtemp auch 5° zu niedrig und Everest 5° zu hoch

RavenTS
2008-08-25, 10:15:35
Ist es nicht auch verwunderlich, das Intel keine wirklichen Extreme Editions ihrer CPUs rausbringt, z.B. den E8400 als 4 Ghz Variante, für die, die vom Übertakten die Finger lassen wollen? Man kann ja die Prozessoren vorher testen.

Das wäre doch gegenüber AMD ein ungeheurer Marketingvorteil: Seht her wir haben als einzige eine 4 GHZ CPU!

Demnach sind also die Bios Temperaturen auch hinfällig. Bei mir liegen zwischen CoreTemp und Bios 10 C.

Das is wohl eher strategisch. Warum sollte man sowas bringen, wenn man eh schon vorne liegt und so nur etwas Potential verspielt bei stärkeren AMD-CPUs einfach direkt zurückschlagen zu können...macht nur das eigene Preisgefüge putt...

drmaniac
2008-08-25, 13:45:40
Ich Frage mich wirklich was solches gebaren soll, auf dem ersten Blick dient es doch nur um Verschleierung, Anwender in Unwissenheit zu baden und Testern das objektive betrachten schwer zu machen (Idealfall eben diese gleichsam auch zu Täuschen und mit höchsten Noten davon zu kommen = Mission erfüllt)? ^^

Mit so einer (hinterm Berg gehaltenen), Technologie und oder bzw. Herangehensweise ließe sich auch leicht noch anderes kaschieren (weiterführend gedacht), das eben womöglich jeweils CPU so und so in der Masse am Ende doch nicht solch Übertaktungswunder!? Der gemeine User das aber nicht bemerken kann (wenn die CPU ggf. dann auto Interna gedrosselt), da er dieses an mehr Leistung im vollen Umfang sowieso (noch) nicht benötigt und außerhalb von Test Umgebungen der Hintergrund zumeist nicht mehr gegeben um solches Verifizieren zu können.

Sorgt aber alles zusammen für einen allgemein besseren Ruft und ebenso guter Mundpropaganda.

verdammt, ich meckere ja nicht oft, eig. nie über sowas. Aber kannst du das nicht ein wenig in kürzeren Sätzen und lesbarer schreiben ;)

.

Der_Donnervogel
2008-08-25, 14:15:14
Na ja. Vielleicht hat der Kommentar Antworter auch einfach nur Recht, wenn er schreibt "Das Verfahren ist damit einfach nur patentierbar.".

Aber im Prinzip schon richtig. Man kann feststellen, dass Intel es scheinbar nicht möchte, dass die Temperatur von Desktop Prozessoren generell absolut gemessen werden kann.
Im Heise Forum gibt es einen Kommentar mit einer Begründung, die eigentlich sehr einleuchtend ist, warum diese Art der Temperaturangabe durch Intel sinnvoller ist, als eine z.B. in Grad Celsius.

Kurze Erklärung von einem Temperatursensorentwickler (http://www.heise.de/newsticker/foren/S-Kurze-Erklaerung-von-einem-Temperatursensorentwickler/forum-142727/msg-15440442/read/)

Kurze Erklärung von einem Temperatursensorentwickler
jce (241 Beiträge seit 15.02.00)

Für alle, die sich fragen, warum so ein "kompliziertes" System
eingesetzt wird, gebe ich hier mal ein paar Infos...

Vorneweg: Ich entwickle auch Temperatursensoren, wenn auch auf
anderen Bausteinen als dem Prozessor.

Die Sensoren werden bisher vor allem fürs "Thermal Throttling"
genommen, also für das Bremsnen der CPU, des DRAMs, sonstiger
Bausteine, wenn Überhitzung droht.

Die einfachste, aber komplizierteste ;-) Möglichkeit wäre, wenn jeder
Baustein seine Temperatur in °C ausgibt. Kompliziert ist diese
Lösung, weil dann für jeden Baustein im Rechner die kritische
Temperatur abgelegt sein müsste (CPU 95°, Samsung-DIMM 80°,
Qimonda-DIMM85°, Graphikprozessor 87°, ...), dazu müsste aber jeder
Baustein diese Temperatur irgendwo speichern. Ausserdem haben
absolute Temperaturen den Nachteil, dass die Messung ungenauer wird,
weil dann zusätzliche Messfehler der Tester in der Produktion mit
eingehen (da hat man schnell mal ein paar Grad zusammen).

Die komplizierte Lösung mit Temperaturdifferenzen ist dann doch
einfacher: Jeder Baustein meldet, wieweit er von seiner kritischen
Temperatur weg ist. Mann weiss dann sofort, unabhängig davon, wo die
Temperatur genau liegt, dass zum Beispiel die CPU 5°, DIMM1 8°, DIMM2
12°, Graphikprozessor 9° unter der Drosselungsgrenze liegt. Die
Temperaturen sind dann implizit in den Bausteinen, aber ich brauche
sie nicht explizit zu wissen. Das hat zum Beispiel auch Vorteile,
wenn in der Produktion das Testprogramm geändert wird und andere
Temperaturen benutzt werden (normalerweise wird bei der krit. Temp.
getestet), da der Baustein nach aussen hin identisch aussieht und
nicht eine geänderte Temperatur einprogrammiert werden muss.

Allerdings hat das zur Folge, dass der Anwender Probleme hat, wenn er
absolute Temperaturen wissen will, denn dann braucht man doch wieder
die krit. Temperaturen aller Bausteine - andererseits ist die
absolute Temperatur ein Wert der kaum Aussagekraft für den
Endanwender hat (wenn man wissen will, wieweit man von der krit.
Temperatur entfernt ist, braucht man ja doch wieder die
Temperaturdifferenz: die CPU läuft bei 90°, krit Temp ist 95°, OK,
alles im grünen Bereich, ich bin 5° drunter...)

Also, für alle, die so ein Anzeigeprogramm nehmen oder gar schreiben:
die Temperaturdifferenz ist der eigentlich interessante Wert.

Ich hoffe ich habe bisschen Licht ins Dunkel gebracht.

Avalox
2008-08-25, 14:41:50
Im Heise Forum gibt es einen Kommentar mit einer Begründung, die eigentlich sehr einleuchtend ist, warum diese Art der Temperaturangabe durch Intel sinnvoller ist, als eine z.B. in Grad Celsius.



Ich habe es mir jetzt zwei mal durchgelesen, aber richtig verstehen tue es es immer noch nicht.

Intel stellt ja auch in diesen Verfahren die kritische Temperatur ein, ab der gedrosselt wird. "programmiert Intel jedem Prozessor individuell ein, verrät ihn aber nicht – die jeweilige Drosselungsgrenze wird beim Test nach dem Fertigungsprozess ermittelt."

Zum anderen denke ich sehr wohl, dass es einen Sinn macht, so wie Intel es gelöst hat. Das stelle ich gar nicht in abrede.

Aber das Verfahren als solches ist ja auch gar nicht der Kritikpunkt;
Der grosse Knaktus ist doch der, dass das Intel Verfahren einen Eintrag vorsieht, welcher es ermöglicht die absolute Temperatur zu errechnen.
Dieser Eintrag in den Desktop Prozessoren aber von Intel nicht vorgenommen wird.
Damit ist bei keinem Intel Desktop Prozessor eine Temperaturmessung möglich!
Erst über den Umweg vom Vergleich der Prozessore ID mit einer von Intel gelieferten Liste, ergibt die Referenz welche die Ermittlung einer Temperatur ermöglicht.

Bei den Mobil CPUs ist der Eintrag gepflegt und eine absolute Messung der Temperatur jederzeit für jeden ohne einer extra Datenliste möglich.

Nun kann man Intel so ziemlich genau zwei Motivationen unterstellen. Zum einen kann der Eintrag als solchen zu viel Geld kosten, was sie sich damit sparen will.
Zum anderen kann es auch sein, dass Intel kein Interesse hat, dass Desktop User Temperaturen von jeder CPU messen können. Man ist dabei dann auf spezielle Intel Referenzen angewiesen, welche sich Intel vorbehält diese dann auch nicht zu verteilen. Gründe könnte es mehrere geben. Um z.B. den Einsatz von Desktop CPUs in Mobil oder Server Umfeldern zu erschweren. Temperaturdiskussionen bei unterschiedlichen Modellen zu vermeiden, etc. etc.

HD-Ronny
2008-08-25, 14:47:44
Coretemp 0.99.3 soll jetzt bei wolfdales richtig auslesen können.
http://www.pcgameshardware.de/aid,657341/Download_Core_Temp_0993_-_Verbesserte_Temperaturerkennung_fuer_Penryn-CPUs/
Zumindest für Intels Prozessoren der Penryn-Generation (Yorkfield und Wolfdale) sind diese Werte seit Version 0.99.3 korrekt: Für diese hat Intel die Maximaltemperaturen (Tj) herausgegeben, sodass Core Temp nun die richtigen absoluten Werte errechnen kann. Überdies liefert das Programm natürlich auch die wichtigsten Informationen zur eingebauten CPU, etwa die Kernspannung und die Taktfrequenz.

Avalox
2008-08-25, 15:24:29
Coretemp 0.99.3 soll jetzt bei wolfdales richtig auslesen können.

Wäre ja auch blöd wenn nicht. Intel hat ja grade gesagt, dass Tj also die Sperrschicht-Maximaltemperatur bei den E8xxx bei 100°C liegt.
Allerdings sprach Intel dort nur von den schon erschienenen. Dass dieses bis in alle Ewigkeit noch so sein wird aber nicht. Was bedeutet, dass die Temperatur bei neueren Modellen wieder falsch sein könnte.

Annator
2008-08-25, 17:01:53
Core Temp zeigt mir 5° weniger an als Everest. Q9450 Yorkfield

Lonesloane
2008-09-23, 18:24:40
Ich habe drei verschiedene Temperaturen für meine 8400: Core Temp, PCWizard2008 und Gigabyte Übertaktungstool. Maximal aber 55 Grad unter Vollast (Scythe Mugen), deshalb mach ich mir keinen Kopf mehr.

Avalox
2008-09-23, 18:37:01
Ich habe drei verschiedene Temperaturen für meine 8400:

Das Tool mit der mittleren Temperatur zeigt es richtig an. Ein Tool zeigt 15°C zu wenig an, das andere 5°C zu viel.

Lonesloane
2008-09-24, 10:59:50
Dann brauche ich mir um meinen 8400er auf 3600 überhaupt keine Sorgen machen. Die Temps waren bei ca. 40 Grad unter Last. Ist ein bißchen wenig, oder?

patrese993
2008-09-24, 11:53:31
bei welcher Spannung, mit welchem Kühler?

Mein Kenny kommt bei 2,4 Ghz@1,18V auch nichtmal auf 40° :rolleyes: erhöhe ich die Sapnnung auf 1,45V (noch nicht mal die Frequenz) geht die Luzi ab ;)

Lonesloane
2008-09-24, 12:26:54
Spannung ist 1.296, Kühler ein Scythe Mugen mit 120mm. Mein Mainboard Ga P35 untervoltet sehr stark und lässt unter Last nochmal nach, irgendwie unangenehm.

patrese993
2008-09-24, 12:55:39
dann sollte das aber schon hinkommen, sind dann ja auch wohl so um die 55-60° auf den einzelnen Cores.
Daß das Board stark untervoltet, ist an sich ja kein Problem - solange man weit genug anheben kann ;) Das Abfallen der Spannung bei Last ist normal, nennt sich Vdroop

Lonesloane
2008-09-24, 13:05:21
Mein anderes System mit AM2+ (auch Gigabyte, AMD780) macht das genau andersrum: Die eingestellte Spannung wird exakt eingestellt und unter Last gibt es 0,05 hinzu. Das finde ich viel angenehmer, Idle mit CnQ zieht wenig und wenn dann die Last kommt hat das System sichere Leistung.

Lonesloane
2008-09-24, 13:27:47
Erst hatte ich das Netzteil in Verdacht, aber die Boardeigenschaften sind unabhängig vom Netzteil.