PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Fehler können übertaktete CPUs produzieren?


PacmanX100
2014-01-27, 20:45:57
Übertakten ist heute überhaupt nichts besonderes mehr, aber dieses Thema beschäftigt mich noch immer.

Meistens wird ja eine Art Stabilitätstest durchgeführt um Rechenfehler aufzudecken. Hier stellen sich mir schon viele Fragen:
Was passiert wenn eine CPU sich "verrechnet"? Wird der Fehler bemerkt? Kann das Betriebssystem reagieren? Wird das Ergebniss einfach falsch übernommen? Oder stürzt das ganze System einfach nur ab bevor so etwas passiert?

Bei Prime werden Rechenfehler angezeigt. Aber das System rennt trotzdem weiter. Wie wirken sich diese also aus?
Wenn wir mal annehmen das der Arbeitsspeicher fehlerfrei arbeitet. Woran lässt sich Stabilität bemessen?
Der L1, L2 Cache scheint doch eine Art ECC zu haben. Wird da wirklich jeder Fehler rechtzeitig erkannt?
Es wäre natürlich höchst unpraktisch wenn bei irgendwelchen Berechnungen am Ende falsche Ergebnisse stehen. Doch viel merkt man davon nicht. In der Regel friert das Betriebssystem ein oder die Anwendung stürzt ab. Was aber wenn nicht...?

ux-3
2014-01-27, 20:48:31
Ich hab z.B. festgestellt, das Prime fehlerfrei durchläuft, aber später der Explorer einfriert.

Hatte auch ein altes Spiel was sich gelegentlich aufhing, bis ich die Spannung etwas angehoben hatte. Und das, obwohl Prime keine Probleme hatte.

Wenn sich eine CPU bei Prime verrechnet, kommt was falsches raus. Das wird ja im torture test überprüft.

PatkIllA
2014-01-27, 20:56:50
Es kann eigentlich alles schief gehen.
Das mag mal nur ein Pixel in einer falschen Farbe sein, aber es ist auch durchaus möglich, dass Adressen falsch berechnet werden und Daten an der falschen Stelle auf der Festplatte geschrieben werden

KinGGoliAth
2014-01-28, 01:51:39
wenn die daten nach dem lesen falsch verarbeitet werden und dann auch falsch auf die platte geschrieben werden bzw der rechner abstürzt während auf die platte zugegriffen wird, kann man sich schonmal das system schreddern.
darum sollte man beim testen auch ausser der systemplatte nichts anschließen und das auch nur nachdem man ein backup vom system gemacht hat.

abstürzende programme oder totalcrashs müssen nicht zwangsläufig sein. es kann auch sein, dass sich z.b. beim zocken teile des spiels (z.b. die physik) falsch verhalten). hatte ich damals mit dem spiel ballance. prime lief, rechner lief, alles lief. aber das spiel war unmöglich zu spielen solange der cpu takt zu hoch war. :freak:


Was aber wenn nicht...?

darum testet man die möhre ja um auszuschließen, dass sich fehler durch zu starkes übertakten einschleichen.
statt prime sollte man besser linX nehmen. das erscheint mir deutlich zuverlässiger.

bei linX und prime wird das ergebnis ja indirekt auf richtigkeit geprüft. wenn du eine kleine zahl durch eine große zahl teilst und das ergebnis ist größer als 1 kann es nur falsch sein.
alle anderen programme kümmern sich nicht darum und wenn es falsch berechnet wird landet es halt falsch auf deinem bildschirm, auf der festplatte, deinen tabellen, gerippten dvds und mp3s usw.

Air Force One
2014-01-28, 10:02:28
also bei meinem alten Intel i7-860 von 2.80GHz mit HT auf 4.20GHz übertektet mit HT und zu wenig Spannung erreicht die CPU unter Cinebench deutlich weniger Punkte als mit korrekter Spannung.

L.ED
2014-01-29, 09:46:10
OC ist schon eine Wissenschaft für sich und die kann schon mal auch über mehre Wochen und Monate bis Jahre für ein System betragen. :eek: Eh man am Ende wirklich relativ sicher sagen kann das es sehr vermutlich Stabil. :biggrin: Hatte schon alles mögliche an Phänomenen, am biestigsten sind die wo die üblichen Verdächtigen keine Fehler und alles in Ordnung Ausgeben (die spezialisierten Test Programme).

Z.b. hatte mal den Fall das Dateien wenn man sie von A nach B kopierte defekt waren, richtig gut feststellen konnte man das z.b. mit Archiven da diese sich leicht auf Fehler im Nachhinein abklopfen lassen. Und um hiermit gleichsam das Augenmerk auf ein anderen nicht minder relevanten Aspekt zu rücken. Denn der letztendliche Grund war unbewusstes (da nicht dokumentiert), RAM OC! Und das obgleich z.b. MemTest keinerlei Fehler anzeigte. :cop:
Bis heute ist es ja so das bei teil oder Vollbestückung nicht mehr der max. offiziell supportete RAM Takt gefahren werden kann. Nur wird das selten entsprechend kommunizierte für die @Home HW, mit Glück irgendwo im kleingedrucktem! Letztendlich kann man dazu nur ein Tipp geben, man werfe ein Blick auf die jeweiligen Server Generationen, denn dort ist so was ausführlicher dokumentiert. Sich dessen für den Desktop ebenso heranzuziehen bringt einen im Zweifel schon einmal auf die sichere Seite! :wink:
In anderen Fällen wo es ebenfalls das RAM aus genannten Gründen letztendlich doch betroffen, lief erstmal wirklich alles augenscheinlich fehlerfrei. Nur unter einem Amiga Emulator (WinUAE), mit einem ganz bestimmten Programm nicht. :naughty: Wenn die Emulation mit 1,5GB RAM gefahren und im Grafikprogramm ArtEffect 3 es forcierte das dieser auch tatsächlich voll belegt nebst schon extremen Swapen!
Ich weiß jetzt nicht mehr ob es nur zum Fehler im Programm oder gleich kompletten Absturz des Emulators oder zu einem BlueScreen führte? In jedem es zielsicher reproduzierbar und Geschichte gewesen, sobald der Speicher auf dem Takt lief wie er seiner zeit auch für die Server zu der und der Bestückung nachzulesen gewesen.

Aus der Zeit weiß ich das gerade Dinge rund um RAM trügerisch sein können (im Sinne von hinterhältig). Wann immer es um OC geht wo auch das gleichsam involviert habe darauf ein erhöhtes Augenmerk und rufe mein Erfahrungsschatz ab z.b. NB OC bei den AMDs. Wobei ich sagen muss das seit dem mich im Zweifel nach dem richte was zu den Servern ausgeschrieben (betreffs RAM Taktungen), dahingehend keine Probleme mehr hatte. :smile:

Geldmann3
2014-02-02, 16:19:01
Ich kann noch hinzufügen, dass ich bei einigen übertakteten CPU's häufiger fehlerhafte Downloads oder fehlerhaft gebrannte DVD's hatte. Auf meinem letzten Rechner der eigentlich stabil lief, musste ich daher 5x ein Windows Image brennen, bis dann etwas rauskam, was sich problemlos installieren, Updaten und konfigurieren ließ. Ohne Übertaktung war jede gebrannte DVD wieder fehlerfrei.

Das Problem ist dann meistens, dass man sich bei einer übertakteten CPU nie sicher sein kann, ob es nun ein Software Fehler ist, oder ob es an der CPU liegt.

PacmanX100
2014-02-02, 16:55:12
Aber lag das dann an der CPU oder vielleicht an der Übertaktung vom "Systembus"?
Man darf nie vergessen das zusätzlich zur CPU vielleicht auch der RAM / PCIe usw. außerhalb der Standards betrieben wird und daher schonmal Errors entstehen können.
Beim Core 2 kann der FSB ja auch mal Probleme verursachen wenn man es übertreibt.

Die Frage ist noch, erkennen CPUs oder Betriebssysteme denn überhaupt ob sie fehlerhaft arbeiten ? wie testet Intel seine CPUs denn überhaupt vor Auslieferung ? Womit ? Was wenn eine Standard-CPU auch mal fehler produziert ? Unwahrscheinlich aber nicht unmöglich..

Tesseract
2014-02-02, 17:12:27
übertakten ist in erster linie eine statistiksache. auch eine unübertaktete CPU hat eine chance sich zu verrechnen, die taktraten sind da aber vom hersteller so gewählt, dass das bei 100% last nur alle zig (oder sogar >100) jahre mal auftritt im schnitt. je höher der takt umso exponentiell größer die chance sich zu verrechnen. ein paar MHz mehr und es sind im schnitt 5 monate, ein paar mehr und es sind im schnitt 5 sekunden, noch ein paar mehr und es sind im schnitt 5 millisekunden. wann sich die CPU verrechnet ist aus quantenmechnischer sicht reiner zufall, d.h. etwas, das mehr cycles verbraucht hat eine höhere chance von einem rechenfehler getroffen zu werden als etwas mit wenig cycles.
wenn man z.B. prime95 laufen lässt und es 99,99% aller cycles verbraucht wärend der systemkernel nur 0,001% der cycles verwendet hat prime klarerweise auch eine viel höhere chance einen fehler zu finden bevor das system als ganzes abstürzt.
welche auswirkungen ein rechenfehler hat ist ebenso wahrscheinlichkeitsabhängig. der fehler kann in einer prozedur entstehen, die keine bleibenden fehler erzeugt (z.B. nur einen pixelfehler der einen frame später wieder verschwunden ist), der fehler kann den prozess bzw. das system zum absturz bringen wenn z.B. nachher ein pointer falsch ist oder ähnliches und der kernel einfach crasht (je nach fehler bluescreen oder gleich freeze) oder er kann auch beim schreiben von nutzdaten in den daten selbst und nicht in der logik vorkommen. in dem fall kann es sein, dass man fehlerhafte daten auf die platte schreibt und es überhaupt nicht auffällt.

und außerdem belasten unterschiedliche prozesse unterschiedliche teile der hardware unterschiedlich stark. das kann natürlich auch einen einfluß darauf haben wo der fehler auftritt.

Die Frage ist noch, erkennen CPUs oder Betriebssysteme denn überhaupt ob sie fehlerhaft arbeiten ?
das hängt davon ab wo der fehler auftritt. das system besteht im prinzip aus kernellogik, prozesslogik und nutzdaten. wenn in der kernellogik was kaputt ist freezt in der regel sofort das system, wenn in der prozesslogik etwas kaputt ist kann der kernel das merken wodurch nur der prozess einfrieren kann (bluescreens sind ein sonderfall von kernel-nahen prozessen) und fehler in den nutzdaten können unterschiedliche auswirkungen haben. es kann z.B. der prozess mit einer eigenen fehlermeldung abstürzen, grafikfehler produzieren oder einfach mit fehlerhaften daten weiterarbeiten.