PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : WinXP - Defragmentierung auf großen Festplatten mit großen Dateien


crystalfunky
2010-08-14, 02:17:05
Moin,

ich wollte euch mal fragen, falls es Leute gibt,
die das selbe Problem haben, wie ich mit Partitionen / Festplatten umgehe,
die groß sind ( > 800 GB ) und große Dateien enthalten (> 4 GB).

Klar hab ich O&O Defrag und nutze das auch, aber ich habe den Eindruck,
dass das nicht so gut arbeitet. Es hat ja seit der Version 12 neue Arten der Defragmentierung. Da sind auch welche dabei, die für große Dateien geeignet sind (für meinen Fall), aber dennoch arbeitet diese Methode mit den Zonen
so merkwürdig, so dass ich doch wieder die alte "Space"-Methode benutze.

Wie macht ihr das?

Rooter
2010-08-14, 12:55:56
Hängt von der Dateigrösse und der Anzahl der Fragment ab. Folgendes Beisipiel:
Eine Datei von 4 GB braucht bei 100 MB/s 40 Sekunden zum einlesen. Ist die Datei in 20 Fragmente zersplittert dauert das einlesen bei einer mittleren Zugriffszeit von 9 ms 40,18 Sekunden --> Völlig egal!
Das eingebaute Defragtool von Windows fasst aus diesem Grund seit Vista keine Fragmente > 64 MB an.

An Software verwende ich alle paar Tage mal Defraggler (wobei ich die zu defragmentierenden Dateien auswähle) und alle paar Wochen UltimateDefrag im "Auto"-Modus.

MfG
Rooter

crystalfunky
2010-08-14, 14:24:32
hab gerade mit Ultimatedefrag meine ntdlr zerschossen und ich bin kein PC-Nerd.
er hat immer bei einer Datei im Ordner dllcache angehalten und das ganze System lahmgelegt,
so dass nichts mehr ging. Beim zweiten mal hardcore neustarten (Powerknopf gedrückt halten) war
dann die ntdlr kaputt. Naja neue dateien kopiert xp geht wieder, aber trotzdem weiß ich jez nicht,
wie ich deinen Tip behandeln soll. Das prog machte aber ansich einen sehr guten Eindruck.

Hast du ne Idee, wie ich jez weiter vorgehen soll?

Rooter
2010-08-14, 15:16:31
Keine Ahnung, hatte noch nie solche Probleme. Welche Version hast du denn benutzt?

MfG
Rooter

Gast
2010-08-14, 15:19:21
Beim Defragmentieren übertreiben es die meisten Leute leider. Defragmentieren ist dazu da, um nach ein paar Jahren des Betriebs die Dateien neu zu ordnen und nicht, dass man ständig im Hintergrund umsortiert. Das kostet viel mehr, als es bringt.
Ich benutze zum defragmentieren Defraggler. Der ist kostenlos, schnell installiert und im Gegensatz zu O&O ist es ein sehr schlankes Tool, das nicht das ganze System zumüllt. Weiters ist die Performance für einen Quick Defrag sehr gut, was in 99% der Fälle genau das ist, was man braucht, nämlich kleine Dateien mit vielen Stückchen, die oft verwendet werden zusammenzufügen.

Gast
2010-08-14, 15:30:51
Ich nutze jkdefrag als "Defragger" ein, "Analyze and sort filzes by size [SLOW]"

KinGGoliAth
2010-08-14, 15:31:11
mit space defraggen und gut ist. nur bei der systempartition könnte sich complete /name lohnen und wird bei mir immer so gemacht. allerdings immer aus einem anderen betriebssystem heraus (xp / win7 dual boot) weil das defraggen der eigenen bootpartition sonst immer durch gesperrte dateien ad absurdum geführt wird.

diesen zonenscheiß habe ich auch deaktiviert. völlig sinnfreies feature. leider werden auch diese programme mit jeder version überladener und vollgestopft mit zeug um immer den eindruck zu erwecken, dass sich in der neuen version was getan hat. :freak:

Gast
2010-08-14, 15:58:47
Die Dateigröße ist relativ egal, die Größe der einzelnen Fragmente ist wichtig.

Wenn wir beispielsweise von einer durchschnittlichen Fragmentgröße von 100 MB, einer Zugriffszeit von 10ms und einer Lesegeschwindigkeit von 100MB/s ausgehen bedeutet es, dass jede s 100MB gelesen werden und anschließend 10ms für die Repositionierung benötigt werden.

Die Zeit verlängert sich also von 1s auf 1,01s pro 100MB, oder anders ausgedrückt um 1%. Das ist vernachlässigbar.

Die Defragmentierung von Windows nimmt seit Vista auch darauf Rücksicht und versucht nicht um jeden Preis Dateifragmente zu verhindern, so lange die Einzelnen Fragmente nicht zu klein werden. Wenn man unbedingt 0% Fragmentierung erreichen will kann das natürlich gerade bei großen Dateien sehr lange dauern, das ist es aber nicht wert, die Defragmentierung dauert dann bedeutend länger als die eingesparten Zeit bei späteren Zugriffen.

KinGGoliAth
2010-08-14, 17:54:38
Die Dateigröße ist relativ egal, die Größe der einzelnen Fragmente ist wichtig.

Wenn wir beispielsweise von einer durchschnittlichen Fragmentgröße von 100 MB, einer Zugriffszeit von 10ms und einer Lesegeschwindigkeit von 100MB/s ausgehen bedeutet es, dass jede s 100MB gelesen werden und anschließend 10ms für die Repositionierung benötigt werden.

Die Zeit verlängert sich also von 1s auf 1,01s pro 100MB, oder anders ausgedrückt um 1%. Das ist vernachlässigbar.

Die Defragmentierung von Windows nimmt seit Vista auch darauf Rücksicht und versucht nicht um jeden Preis Dateifragmente zu verhindern, so lange die Einzelnen Fragmente nicht zu klein werden. Wenn man unbedingt 0% Fragmentierung erreichen will kann das natürlich gerade bei großen Dateien sehr lange dauern, das ist es aber nicht wert, die Defragmentierung dauert dann bedeutend länger als die eingesparten Zeit bei späteren Zugriffen.

abgesehen davon, dass die realen zugriffszeiten oft deutlich höher sind als die vom hersteller der platte präsentierten mittleren zugriffszeiten, ist dein beispiel aber auch fern der realität. wenn eine mehrere gb große datei geschrieben und dabei fragmentiert wird bekommst du keine bequemen 10 häppchen sondern eher viele 100 bis einige 1000 teile. und die zusammenzusuchen dauert dann schon eine ganze weile.

looking glass
2010-08-14, 18:15:08
Das kommt doch wohl sehr auf dei auf der Platte liegenden Dateien an, wie groß die sind, wie oft sie "wechseln" oder ihre Größe ändern, um überhaupt eine Fragmentierung zu erreichen - noch interessanter wäre allerdings, ob ein einfaches komplettes weg und wieder hin kopieren nicht effektiver und schneller wäre, als das defraggen, den bei diesem Vorgang wird ja automatisch defraggt (sofern die Endpartition blockfrei wäre, was beim kompletten arbeiten der Fall wäre).

Rooter
2010-08-14, 22:12:46
abgesehen davon, dass die realen zugriffszeiten oft deutlich höher sind als die vom hersteller der platte präsentierten mittleren zugriffszeiten, ist dein beispiel aber auch fern der realität. wenn eine mehrere gb große datei geschrieben und dabei fragmentiert wird bekommst du keine bequemen 10 häppchen sondern eher viele 100 bis einige 1000 teile. und die zusammenzusuchen dauert dann schon eine ganze weile.Wenn eine 4 GB Datei in 1000 Teile zersplittert ist wäre deren Durschschnittsgröße 4 MB. Da sind wir natürlich schon im sinnvollen Bereich. Bei einer 4 GB Datei fängt der imo erst bei einer dreistelligen Zahl Fragmente so langsam an.

MfG
Rooter

Razor
2010-08-15, 02:56:00
Das Defragmentieren "lohnt" eigentlich nur, wenn eine Partition mal zu klein war... das ist der Moment, wo Dateien (stark) fragmentiert werden.
Ist ausreichend Platz, passiert das lediglich in einem Umfang, der ABSOLUT zu vernachlässigen ist... seit WinXP mit NTFS (5.1).

Das Dateisystem selbst sorgt im Alltagsbetrieb schon dafür, dass Dateien nicht mehr vollkommen sinnfrei "zerhackt" werden und entsprechend kleine Dateien in wieder freigewordene "Lücken" gelegt werden. Das ist ja auch der Grund, warum man Dateien unter NT4 noch laaaange nach der Löschung wiederherstellen konnte - heutzutage dieses Unterfangen auf einer Systempartition aber als nahezu unmöglich angesehen werden darf.

Insofern sollte man sich wirklich fragen, ob sich der Aufwand überhaupt "lohnt", auch verkürzt man die Lebensdauer der Festplatten mit solchen permanenten Defragmentierungen ganz erheblich!

Soll ja sogar "hiernies" geben, die SSDs defragmentieren... oh mann.

Razor

P.S.: das Defragmentieren mit Sortierung nach "Name" ist ja nun mal das sinnloseste, was es überhaupt geben kann!

crystalfunky
2010-08-15, 13:14:59
kannst du das irgendwie belegen, razor?

Speziell deine Anprangerung von defrag bei SSDs und defrag per name!

Gast
2010-08-15, 13:22:47
Klar hab ich O&O Defrag und nutze das auch, aber ich habe den Eindruck, dass das nicht so gut arbeitet.Das hab ich schon seit Jahren. Deswegen benutze ich den letzten Build (Update halt) von PerfectDisk 8 und "smart".

(del)
2010-08-15, 13:31:57
Speziell deine Anprangerung von defrag bei SSDs und defrag per name!Wo ist der Sinn daran Dateien alphabetisch auf der Platte zu ordnen? Fangen die wichtigsten oder meistgeladenen Datein bei dir mit A, B und C an und die am meisten sich veränderbaren mit X, Y und Z? :| Verstehe nicht worübert man sich hier wundern sollte.

Was SSDs angeht ist dir bestimmt schon aufgefallen, daß man eigentlich defragmentiert, damit die Platte beim Lesen/Schreiben nicht hin und her rödelt. Wei Rödelzeit Wartezeit bedeutet. Da die Platte meist eh immer dreht, ist das Rödeln ja das hin und her Bewegen des kleinen Ärmchen mit den Köpfen. SSDs haben aber keine Köpfe.
http://keppanet.netfirms.com/keppanet/harddisk/hdinside.htm
http://www.legitreviews.com/article/954/2/

Rooter
2010-08-15, 14:12:54
Wo ist der Sinn daran Dateien alphabetisch auf der Platte zu ordnen?Der Gedankengang ist wohl dass die vermuten dass nach z.B. der opera.exe gleich die opera.dll geladen wird. Aber wer weis schon ob es wirklich so ist? Und selbst wenn, bei Firefox z.B. funktioniert die Idee schon nicht mehr.

Was SSDs angeht ist dir bestimmt schon aufgefallen, daß man eigentlich defragmentiert, damit die Platte beim Lesen/Schreiben nicht hin und her rödelt. Wei Rödelzeit Wartezeit bedeutet. Da die Platte meist eh immer dreht, ist das Rödeln ja das hin und her Bewegen des kleinen Ärmchen mit den Köpfen. SSDs haben aber keine Köpfe.
http://keppanet.netfirms.com/keppanet/harddisk/hdinside.htm
http://www.legitreviews.com/article/954/2/Die Zugriffszeiten von SSDs liegen aber nicht im Nanosekundenbereich sondern bei 0,1 bis 0,2 ms. Das ist zwar um einen zweistelligen Faktor besser als bei einer HDD aber bei einer Datei wie z.B. der Outlook-PST meines Arbeitskollegen mit 2500 Fragmenten :freak: könnte es noch etwas bringen. Aber auch wirklich nur in solchen sehr seltenen Extremfällen.

MfG
Rooter

Der_Donnervogel
2010-08-15, 14:21:47
Die Zugriffszeiten von SSDs liegen aber nicht im Nanosekundenbereich sondern bei 0,1 bis 0,2 ms. Das ist zwar um einen zweistelligen Faktor besser als bei einer HDD aber bei einer Datei wie z.B. der Outlook-PST meines Arbeitskollegen mit 2500 Fragmenten :freak: könnte es noch etwas bringen. Aber auch wirklich nur in solchen sehr seltenen Extremfällen.Wenn, dann würde ich aber nur ganz bestimmte Dateien defragmentieren. Wars nicht so, dass man sich damit die SSDs eher schneller kaputt macht? Wenn mich nicht alles täuscht haben die verwendeten Flashspeicher doch eine maximale Anzahl von Schreibzugriffen die sie vertragen. Anschließend sind sie kaputt. Das wird AFAIK normalerweise nur dadurch entschärft, dass die interne Logik versucht die Daten möglichst zu verteilen und nicht immer auf die selben Zellen zu schreiben. Wenn man nun beim Defragmentieren ständig den Inhalt der Platte herum schiebt, müsste man also nicht nur keinen spürbaren Vorteil haben, sondern sogar noch den Nachteil, dass man schneller einen Hardwaredefekt hat.

Gnafoo
2010-08-15, 14:45:01
Der Gedankengang ist wohl dass die vermuten dass nach z.B. der opera.exe gleich die opera.dll geladen wird. Aber wer weis schon ob es wirklich so ist? Und selbst wenn, bei Firefox z.B. funktioniert die Idee schon nicht mehr.

Allgemein liegen die Daten aus demselben Verzeichnis (das ja auch zum Dateinamen gehört) beieinander. Das kann schon sinnvoll sein. Beim Start z. B. wird überwiegend auf „\Windows“ und „\Windows\System32“ zugegriffen. Die mittlere Zugriffszeit sollte dann ja sinken, wenn die Daten zusammen liegen.

Headjunkie
2010-08-15, 15:39:00
Defrag bei SSDs ist einfach nur Bloedsinn:
Bei jedem Lesevorgang einer SSD wird ein Adressenschluessel angelegt und die Inhalte der passenden Zellen ausgespuckt. Es ist voellig egal ob der naechste Adressenschluessel +1 oder +328476234756 vom letzten Adressenschluessel ist, es dauert beides genau gleichlang.

Da SSDs aber Bloecke auslesen, wuerde Defrag sich lohnen um related Dateien in die gleichen Bloecke zu packen und damit weniger Bloecke auslesen zu muessen. Das scheitert aber an direkt 2 Dingen, 1. sind die Bloecke relativ klein (4096 Byte ist glaube ich momentan das groesste, auf jeden Fall sind das net mal 4 Seiten in nem .txt Dokument...) und 2. wissen Defrager Tools einfach nicht gut genug welche Dateien wie zusammenhaengen und koennen daher des einfach nicht.
Defrag auf SSD bring genau 0,nix und reduziert die Lebensdauer durch unnoetige Schreib/Lesevorgaenge. Also einfach sein lassen.

(del)
2010-08-15, 18:24:23
Allgemein liegen die Daten aus demselben Verzeichnis (das ja auch zum Dateinamen gehört) beieinander. Das kann schon sinnvoll sein.Was hat das denn noch mit einer alphabetischen Reihenfolge zu tun? :|

Headjunkie
2010-08-15, 19:02:47
Gerade am Laptop defraggen mit Defraggler, thx fuer den Hinweis auf das Tool, mein Oo hat seit einiger Zeit net richtig funktioniert.
Aber die Stats sind bissel hardcore:
used:73.8 Gb
free: 14.5 Gb
8,801 fragmentierte Dateien (14.3Gb):freak:
30.364 gesamte Fragmente:freak:
19% insgesamt fragmentiert
:biggrin:

crystalfunky
2010-08-15, 19:08:57
ich sehe schon, dass hier eine rege Diskussion ausartet.
Danke erstmal für eure Antworten, aber kommen wir doch wieder zu meinem Problem zurück.
Ich habe eine große Festplatte >800 GB und nur große Dateien >4 Gb.

Soll ich es einfach ignorieren, wenn große Bereiche davon fragmentiert sind,
oder macht es Sinn da mit Defragtools etwas zu starten?
Ich mein einen SPÜRBAREN EFFEKT merke ich nicht wirklich,
seit ich O&O defrag nutze und das tue ich schon seit mehreren Jahren.

Headjunkie
2010-08-15, 19:20:56
Also wie schon ein paarmal vorgerechnet, es macht an sich keinen Sinn.
Weh tun sollte es einer HDD aber nicht, vorallem da du ja wahrscheinlich auf der HDD nicht so viel rummachst (im Vergleich zu einer Systemplatte).

Also, bringt nix, tut nix weh, kannste nun halten wie nen Dachdecker (:

Rooter
2010-08-15, 19:39:50
Defrag bei SSDs ist einfach nur Bloedsinn:
Bei jedem Lesevorgang einer SSD wird ein Adressenschluessel angelegt und die Inhalte der passenden Zellen ausgespuckt. Es ist voellig egal ob der naechste Adressenschluessel +1 oder +328476234756 vom letzten Adressenschluessel ist, es dauert beides genau gleichlang.Jeder Zugriff auf den nächsten Block dauert immer gleich lang? Das kann aber nicht sein denn dann würde ja das lesen einer 4 MB großen Datei (1000 x 4 KB) ja alleine 0,1-0,2 Sekunden nur für den Zugriff benötigen. Habe ich da einen Denkfehler drin oder du?

Ich habe eine große Festplatte >800 GB und nur große Dateien >4 Gb.

Soll ich es einfach ignorieren, wenn große Bereiche davon fragmentiert sindWie gesagt, es hängt von der Größe der Fragmente ab ob es Sinn macht.
Ansonsten: Wenn du wirklich nur(?) 4 GB Dateien auf dem Laufwerk hast gilt es auch dann als "100% fragmentiert" wenn je Datei in nur 2 Fragmente gesplittet ist. Das sowas für die Performance völlig wuscht ist dürfte klar sein.

Poste doch mal einen Screenshot von Defraggler mit den augelisteten Dateien (das hier (http://computerworld.nl/uploads/x/8/x8njbaktzt9n43wg.png)).

MfG
Rooter

crystalfunky
2010-08-15, 20:41:42
also ich hab den Defraggler mal ausprobiert.
CCleaner ist zwar sehr sehr gut, aber lange kein Grund allen Programmen
vom selben Herstellern das selbe Vertrauen zu schenken.
Erstens braucht es viel zu lange, zweitens hab ich das Gefühl, dass es überhaupt nichts macht.

Naja, werde mich nochmal mit Ultimatedefrag versuchen und das vielleicht alle paar Wochen benutzen, vielleicht auch beim alten O&O zurück gehen.

Headjunkie
2010-08-15, 21:23:36
Jeder Zugriff auf den nächsten Block dauert immer gleich lang? Das kann aber nicht sein denn dann würde ja das lesen einer 4 MB großen Datei (1000 x 4 KB) ja alleine 0,1-0,2 Sekunden nur für den Zugriff benötigen. Habe ich da einen Denkfehler drin oder du?

Zugriff und Auslesen ist bei einer SSD das gleiche, in einem Clockcycle werden die Adressbits angelegt und im naechsten kommen die Datenbits auf den Datenleitungen raus. Daher ist die auslese und zugriffsgeschwindigkeit gleich (und halt mit 1 Clockcycle versetzt).
Und ja, wenn man wie du annimmt das 0,1s 4MB lesen koennen, dann hat diese SSD ne Lesegeschwindigkeit von 40MB, was eine aeltere SSD ist.

Allerdings sind viele SSDs zusammengesetzt aus mehreren Chips und koennen daher Daten parallel auslesen, was das ganze dann verkompliziert.

Um zurueck zum Start zu kommen, dadurch das elektrische!! Adressen statt physikalischer Locations angelegt werden und Elektronen mit nahe Lichtgeschwindigkeit durch die Leiterbahnen rasen, ist es bei einer SSD egal wo eine Datei liegt, vorallem in Relation zur naechst gelesenen. Bei Lichtgeschwindigkeit sind die paar nano-meter Distanz naemlich voellig schnurze, waehrend der HDD Kopf nur mit paar Meter pro Sekunde rumduesen kann.

Rooter
2010-08-15, 22:19:15
Erstens braucht es viel zu lange, zweitens hab ich das Gefühl, dass es überhaupt nichts macht.Ersteres kannst du umgehen indem du die zu defragmentierenden Dateien selbst bestimmst. Und mit welcher Datei das Programm gerade beschäftigt ist bekommst du doch angezeigt.

Zugriff und Auslesen ist bei einer SSD das gleiche, in einem Clockcycle werden die Adressbits angelegt und im naechsten kommen die Datenbits auf den Datenleitungen raus. Daher ist die auslese und zugriffsgeschwindigkeit gleich (und halt mit 1 Clockcycle versetzt).
Und ja, wenn man wie du annimmt das 0,1s 4MB lesen koennen, dann hat diese SSD ne Lesegeschwindigkeit von 40MB, was eine aeltere SSD ist.

Allerdings sind viele SSDs zusammengesetzt aus mehreren Chips und koennen daher Daten parallel auslesen, was das ganze dann verkompliziert.

Um zurueck zum Start zu kommen, dadurch das elektrische!! Adressen statt physikalischer Locations angelegt werden und Elektronen mit nahe Lichtgeschwindigkeit durch die Leiterbahnen rasen, ist es bei einer SSD egal wo eine Datei liegt, vorallem in Relation zur naechst gelesenen. Bei Lichtgeschwindigkeit sind die paar nano-meter Distanz naemlich voellig schnurze, waehrend der HDD Kopf nur mit paar Meter pro Sekunde rumduesen kann.Okay, scheint wirklich so zu sein.
In einem Punkt bist du aber schwer im Irrtum: Elektronen bewegen sich garantiert nicht mit Lichtgeschwindigkeit durch Leiterbahnen! Ich glaube mich an einen Wert um 100 km/s zu erinnern. :uponder:

MfG
Rooter

Headjunkie
2010-08-15, 23:23:55
Okay, scheint wirklich so zu sein.
In einem Punkt bist du aber schwer im Irrtum: Elektronen bewegen sich garantiert nicht mit Lichtgeschwindigkeit durch Leiterbahnen! Ich glaube mich an einen Wert um 100 km/s zu erinnern. :uponder:

MfG
Rooter
Ok das war daemlich formuliert.
Das individuelle Elektron ist relativ langsam, aber wenn es auf der einen Seite eines Kabels reingeht, geht auf der anderen Seite sofort(bzw. halt in Lichtgeschwindigkeit) eins raus. Bis das reingegangen Elektron an der anderen Seite ankommt kanns allerdings ziemlihc lang dauern. Die "Information", ein Elektron ist reingekommen, die reist allerdings trotzdem in Lichtgeschwindigkeit(bzw sehr nah dran, 99,99%).
Hoffe das ist verstaendlicher.

Und damit ist reist die Information AdresseXYZ halt in Lichtgeschwindigkeit, verglichen mit nem Festplattenlesekopf der mechanisch bewegt werden muss ist das astronomisch schnell.

(del)
2010-08-16, 02:27:33
Ich habe eine große Festplatte >800 GB und nur große Dateien >4 Gb.Solange das Streamen/Abspielen ohne Unterbrecher läuft lass es halt so wie es ist...

Rooter
2010-08-16, 23:55:05
Ok das war daemlich formuliert.
Das individuelle Elektron ist relativ langsam, aber wenn es auf der einen Seite eines Kabels reingeht, geht auf der anderen Seite sofort(bzw. halt in Lichtgeschwindigkeit) eins raus. Bis das reingegangen Elektron an der anderen Seite ankommt kanns allerdings ziemlihc lang dauern. Die "Information", ein Elektron ist reingekommen, die reist allerdings trotzdem in Lichtgeschwindigkeit(bzw sehr nah dran, 99,99%).
Hoffe das ist verstaendlicher.

Und damit ist reist die Information AdresseXYZ halt in LichtgeschwindigkeitMeine letzte Physikstunde ist zwar schon geraume Zeit her aber ich glaube das stimmt so auch nicht. Wenn z.B. eine neue Überlandleitung in Betrieb genommen wird kann es durchaus einen Moment dauern bis an anderen Ende der "Saft" ankommt. Schon alleine wegen der Leitungskapazität die erstmal auf ganzer Länge umgeladen werden muss, hat aber iirc noch andere Gründe.

MfG
Rooter

Headjunkie
2010-08-17, 13:24:45
AHHHHHHHHHHHHHH
Ich hab doch nur versucht es so einfach wie moeglich zu erklaeren ;(
Wenn ihr wollt kann ich euch auch gerade Flashzellen aufmalen, den Stromkreislauf erklaeren und nebenbei diskutieren wir warum die Erde eigentlich (fast) rund ist...

Aber zeigen wollte ich nur warum SSDs nix von Defragmentierung haben...
Ich habe 4 Jahre Elektronik studiert, in Englisch, und habe halt versucht fuer ein deutsches Forum es so simpel wie moeglich zu halten damit es verstaendlich ist :freak:


Also letzter Versuch, bis ein mechanischer Festplattenkopf seine Position gefunden und eingenommen hat(Accesstime) hat ne SSD die Daten schon ausgespuckt. Physikalische Positionen sind dank Adressenschluessel bei einer SSD voellig fuern Popo und genau deshalb ist defrag(wo liegt die naechste Datei im Vergleich zur letzten) voellig egal, aber auf einer HDD wichtig da wenn eine Datei 100mal gesplittet ist, im worst case der HDD-Kopf 100 mal mechanisch!! umpositioniert werden muss.

Edit: Als Klartext, das Prinzip der "Defragmentierung" existiert im Kontext SSD nicht. Sollte man eine "Defragmentation" auf einer SSD durchfuehren wird man genau 0 Geschwindigkeitsunterschied sehen aber die Lebenszeit der SSD reduziert haben.

crystalfunky
2010-08-18, 00:26:23
Im Endeffekt geht es ja bei einer Festplatte auch nur darum,
die Lebenszeit derselben so weit es geht zu verbessern (siehe dein Post headjunkie,
dass der Kopf eben jedes mal springen muss)
Ob es jetzt Geschwindigkeitsunterschiede vor und nach dem Defragmentieren gibt,
konnte ich bisher nicht MERKLICH feststellen. Vielleicht ein paar mal, wo
er bestimmte Programme oder Dateien schneller aufgemacht hat, aber sonst eher nicht.

Jonny1983
2010-08-18, 21:46:26
noch interessanter wäre allerdings, ob ein einfaches komplettes weg und wieder hin kopieren nicht effektiver und schneller wäre, als das defraggen, den bei diesem Vorgang wird ja automatisch defraggt (sofern die Endpartition blockfrei wäre, was beim kompletten arbeiten der Fall wäre).

Genau dieses Prinzip nutze ich, weils schneller ist bei mittlerer bis starker Fragmentierung. Außerdem schont es de Platte, weil der Schreiblesekopf weniger hin und her wandern muss.

Achja, wer eine SSD defragmentiert ist einfach nur blöde :-P


thx@ Headjunkie
irgendwie wollte meine G taste nicht bei dem Wort...

Headjunkie
2010-08-18, 23:20:22
@crystalfunky:
Bei HDDs wirst du im Normalfall die Lebenszeit nicht merklich veraendern, ob mit oder ohne defrag. HDD-Koepfe koennen Milliardenmal umpositioniert werden ohne wirkliche Probleme, die Laufzeiten bzw. mechanischen Ungenauigkeiten sind absolut beeindruckend krass heutzutage.
Defrag kann Geschwindigkeitsverbesserungen bringen, aber weil der Kopf auf einer fragmentierten Platte mehr springen muss, wird die Platte im Normalfall nicht merklich altern.
Aber da es Geschwindigkeit bringen kann lohnt es sich auf stark fragmentierten Platten und bei einer grossen Anzahl an Files oder Fragmenten. Bei deinem 4GB File Drive sollte aber die HDD sowieso ziemlich lange halten weil sie im Gegensatz zu einer Systemplatte nicht immer aktiv ist und wenn sie aktiv ist, liest sie nur 1 File mit wenigen Fragmenten.

So als Beispiel fuer Dimensionen, meine vorher schon aufgefuehrte Laptop-Partition(ist nicht das Windows-drive) hat auf 60GB (von 80GB) ca 360,000 Dateien in 32,000 Ordnern....nun stell dir mal vor wie oft mein HDD-head hin- und herspringen muss (:

Und btw Jonny: Wer deframentiert statt defraGmentiert.... (-:

(del)
2010-08-18, 23:58:01
Ob es jetzt Geschwindigkeitsunterschiede vor und nach dem Defragmentieren gibt, konnte ich bisher nicht MERKLICH feststellen. Vielleicht ein paar mal, wo er bestimmte Programme oder Dateien schneller aufgemacht hat, aber sonst eher nicht.Kommt halt zum großen Teil drauf an womit man das macht und wie man sich das System zurechtgelegt hat. Als ich hier mal schrieb, daß Photoshop10 (CS3) hier in 5-6s startet (von einer 1-Scheibe 500GB BlackCaviar), also in der gleichen Zeit wie z.B. der Writer von OpenOffice 3.3.0beta, dann wollten mich einige anspringen :biggrin: Vor allem da ich nur die Systemdaten "precachen" lassen. Unter XP. Das geht ja mal garnicht...

Weil die Leute einfach Ahnung haben, und wenn sie 1x Ahnung haben, dann bist du halt nur ein Lügner, wenn du mal andere Ahnung hast. Weil man z.B. die Objekte auf der Platte eben alphabetisch einsortieren läßt, weil das halt am meisten Sinn macht. Ahnung halt :| Kannst du machen nix.

Gast
2010-08-19, 05:14:45
Achja, wer eine SSD deframentiert ist einfach nur blöde :-PWer von euch der eben nicht so blöde kann mir in dem Kontext erklären warum SSDs genauso wie HDs bei random Zugriffen so merkbar langsamer sind als sequentiell?

Headjunkie
2010-08-19, 08:20:21
Wer von euch der eben nicht so blöde kann mir in dem Kontext erklären warum SSDs genauso wie HDs bei random Zugriffen so merkbar langsamer sind als sequentiell?
Hab ich doch schon gesagt, SSDs lesen Datenbloecke aus.
Wenn man nun eine Datei sequentiell liest die auf insgesamt 100 Datenbloecke verteilt ist aber die meisten davon ausfuellt, liest man halt 90% Daten die man will und nur sehr wenige Bytes an Muell.

Bei RandomAccess Tests werden meist viele kleine Dateien gelesen, und hier kommt das Problem das man halt immer nen kompletten Block ausliest, von dem man aber nur einen kleinen Bereich(die aktuelle Datei) wissen will. Daher ist RandomAccess langsamer. Dies ist aber nichts was durch defragmentieren behoben werden koennte.

Rechenbeispiel:
1 Datei in 100 Bloecken, in 90 ist sind nur Teile der Datei, 10 Bloecke enthalten 50% auch andere Daten. Das heisst beim lesen dieser Datei werden also eigentlich nur 95 Bloecke gebraucht aber 100 gelesen.


Nun nimmste 100 Dateien die jeweils einen halben Block ausfuellen, du musst aber immernoch 100 komplette Bloekce lesen hast aber 50% Muell weil du ja nur in 50 Bloecke insgesamt interessiert warst. Bedeutet im Endeffekt fast halbierte Geschwindigkeit (95/2=47.5 vs 50) beim Test.


Dazu kommen noch ein paar andere Effekt, wie das zB ne SSD auch immer blockweise beschrieben wird, das heisst bei einer Installation werden die Daten auch immer Blockweise auf die SSD geschrieben was wieder sequentiellem Lesen beim Programmstart hilft weil die normalen 50% Muell halt ploetzlich zu naechsten Datei gehoeren und damit nicht mehr weggeschmissen werden. Aber wie schon vorher erwaehnt, kein Defragprogram auf diesem Planeten kann so gut sein zu wissen welche Dateien in was fuer einer Abhaengigkeit existieren, wie sie gelesen werden und dann die Dateien passend in Bloecke zu sortieren.
Davon abgesehen ist ne SSD selbst beim absolut worst case random access immer noch verdammt schnell.

Rooter
2010-08-19, 19:16:09
Aber wie schon vorher erwaehnt, kein Defragprogram auf diesem Planeten kann so gut sein zu wissen welche Dateien in was fuer einer Abhaengigkeit existieren, wie sie gelesen werden und dann die Dateien passend in Bloecke zu sortieren.Das wäre aber doch mal eine Idee für einen echten Fortschritt bei den großen Defragttools, allen voran O&O: Einen Dienst mitlaufen lassen der Den sowieso ständig mitlaufenden Dienst erweitern so dass er ähnlich wie SysInternals FileMon die Zugriffe des Dateisystems protokolliert und lernt in welcher Reihenfolge auf Dateien zugegriffen wird. Auf Basis dieser statistischen Erhebung die Dateien sortieren.
Wenn SSDs in einigen Jahren mit Festplatten nicht nur im Preis sondern auch in Sachen Kapazität gleichziehen und diese endgültig ablösen wird sich O&O eh etwas Neues einfallen lassen müssen... :D

MfG
Rooter

PatkIllA
2010-08-19, 20:13:45
Aber wie schon vorher erwaehnt, kein Defragprogram auf diesem Planeten kann so gut sein zu wissen welche Dateien in was fuer einer Abhaengigkeit existieren, wie sie gelesen werden und dann die Dateien passend in Bloecke zu sortieren.
Genau das macht das Prefetch von Windows. Zumindest was Programme angeht.

Auf einer SSDs gibt es aufgrund von Wear Leveling eh kein wirklich sequentielles Lesen.

Headjunkie
2010-08-20, 02:52:09
Genau das macht das Prefetch von Windows. Zumindest was Programme angeht.

Auf einer SSDs gibt es aufgrund von Wear Leveling eh kein wirklich sequentielles Lesen.
Naja, Prefetech macht nicht wirklich das gleiche. Prefetch laedt einfach alle! Dateien fuers benoetigte Programm in den Arbeitsspeicher. Das ist viel einfacher da halt alles geladen wird und vorallem braucht man sich nicht um blockaufteilungen zu kuemmern. Die Herausforderung bei SSDs waere ja nicht nur zu wissen welche Dateien insgesamt geladen werden muessen, sondern in welcher Reihenfolge. Und dann diese Reihenfolge passend in Sektoren schreibene.... das wird hinten und vorne nix und macht auch kaum Sinn durch die extrem hohe Geschwindigkeit von SSDs. Der Aufwand rechnet sich hier einfach nicht (mein randomaccess Beispiel mit nur 50% wirklichen Daten ist ja fast worst case scenario, inner Realitaet sollten die Unterschiede wesentlich weniger als Faktor 2 sein).

Im Prinzip habt ihr aber Recht, es waere ein Forschungsfeld, nur wie gesagt ich glaube einfach nicht das sich hier der Aufwand mit dem Resultat in nem gesunden Verhaeltnis bewegt.

Ausserdem werden SSDs wenigstens fuer die naechsten 5-10 Jahre HDDs nicht ersetzen (irgendein CEO/CTO hat gerade gesagt: "There isnt currently enough flash memory in the entire world to replace a years worth of HDDs) durch das Problem der Kapazitaet.
WD will bis 2013/14 die 15TB HDD anbieten, da koennen Flashspeicher einfach auf absehbare Zeit nicht mitziehen.

Gruss vom halb besoffenen Headjunkie

ux-3
2010-08-22, 11:32:07
Ich hab bei XP gerade Prefetch abgeschaltet, da das SYS jetzt auf einer SSD läuft. Dann habe ich mal einen Blick auf meine Spiele HDD geworfen: Von den 1,5 TB ist die Hälfte voll und Windows meldet, das Defragmentieren sinnvoll wäre.

Ich hätte nun gerne zwei Dinge: Defragmentierung und lokale Nähe von Spieldateien.

Ist folgende Überlegung richtig? Ich hab hier genug Platz auf anderen Platten. Ich kopiere die Platte mit Drag&Drop auf eine andere Platte und formatiere die Platte frisch. Dann kopiere ich alles wieder zurück. Wird XP dann nicht einen Ordner nach dem anderen, Datei für Datei aneinanderfügen - vermutlich schneller als das defrag von xp?

Headjunkie
2010-08-22, 14:57:13
Guck doch erstmal mit Defraggler wieviele Dateien und wieviele Fragmente es wirklich sind.
Wenn es nur 2 Fragmente/Datei sind lohnt sich ueberhaupt kein Aufwand.

Und falls es zu fragmentiert ist, schmeiss Defraggler an ueber Nacht oder waehrend du auf Arbeit bist, kostet 0 Aufwand im Vergleich zu dem Kopieren/Formatieren

ux-3
2010-08-22, 15:32:44
83k Dateien fragmentiert
332k Fragmente

Headjunkie
2010-08-22, 18:16:28
Das klingt als waere es sinnvoll (:
Einfach morgen wenn du zur Arbeit/Uni/Schule gehst das Defrag Tool anschalten, wenn du nach Hause kommst ist es fertig und ready to use.

Rooter
2010-09-12, 15:08:19
Ich hole den Thread mal wieder hoch.

Das wäre aber doch mal eine Idee für einen echten Fortschritt bei den großen Defragttools, allen voran O&O: Einen Dienst mitlaufen lassen der Den sowieso ständig mitlaufenden Dienst erweitern so dass er ähnlich wie SysInternals FileMon die Zugriffe des Dateisystems protokolliert und lernt in welcher Reihenfolge auf Dateien zugegriffen wird. Auf Basis dieser statistischen Erhebung die Dateien sortieren.Habe vorhin das neue UltimateDefrag 3 (http://www.disktrix.com/) ausprobiert und das setzt zumindest eine stark vereinfachte Variante davon um: Wenn das Programm läuft und eine Partition analysiert hat werden die Ergebnisse in einer Datenbank gespeichert bzw. diese aktualisiert. Wird das Programm z.B. täglich ausgeführt lernt es welche Dateien wirklich oft gebraucht werden und welche jetzt nur ausnahmsweise Mal geöffnet wurden.

Leider habe ich im Auto-Modus das Problem dass am Ende einige Dateien "vergessen werden", obwohl ich diese dann mit Defraggler problemlos defragmentieren konnte. Bin deswegen für's Erste wieder zurück zur alten Free-Edition (http://www.chip.de/downloads/UltimateDefrag_32514780.html).

MfG
Rooter

crystalfunky
2011-02-14, 15:12:09
Ich wollte erst einen neuen Thread aufmachen,
aber vielleicht geht das ja auch hier.

Ich habe mit Ultimatedefrag das Problem,
dass wenn ich für eine Partition (E: ) die Metadaten neu positionieren möchte,
dass er dann gleich alle Partitionen mit den Einstellungen von E: umsetzen möchte.
Was mache ich dagegen? Ich habe schon die Datei UDBootCFG im Ultimatedefrag Ordner
bearbeitet und die anderen Partitionen herausgelöscht.
Werde jetzt gleich mal neustarten und schauen, was sich dann getan hat.
Hat sonst jemand schon einmal dieses Problem gehabt? Benutze 3.0.100.19

duty
2011-02-14, 15:23:22
das ist richtig was weiter oben steht das es eigentlich keine Gerschw. bringt bei Daten ,
wenn sehr viele Daten sehr große HDD... wenn der Strom mal weg geht ,
hat man mit unter Datenverlust..?
wenn überhaupt würde ich einfach das Defrag von Windows nehmen

Rooter
2011-02-15, 17:43:51
das ist richtig was weiter oben steht das es eigentlich keine Gerschw. bringt bei Daten ,
wenn sehr viele Daten sehr große HDD... wenn der Strom mal weg geht ,
hat man mit unter Datenverlust..?
Wat? :confused:

MfG
Rooter

crystalfunky
2011-02-15, 18:06:08
ok problem gelöst.
wenn man die udootcfg bearbeitet,
wird beim booten das richtige laufwerk defragmentiert.
Keine ahnung warum das so ist, ist wahrscheinlich ein Bug.

demklon
2011-03-02, 08:48:12
Tag Forum,
welche Methode nutze ich, wenn ich ganz normales System habe ?
also normale Dateigrößen, und normale Windows betrieb ?

crystalfunky
2011-03-02, 11:42:23
Mit Ultimatedefrag empfehle ich dir die Consolidate!
Unter Optionen aktivierst du nur folgende Punkte:

- Put directories close to MFT
- Fragprotect

Das ist alles.

demklon
2011-03-02, 12:33:15
ich habe aber nicht Ultimatedefrag, ich nutze die Software von O&O Software.
ist Ultimatedefrag frei, ist das besser, und wenn ja, dann warum ?

crystalfunky
2011-03-02, 12:36:01
o&o kannst du völlig vergessen.
Bringt kein bisschen geschwindigkeit.
Es gibt eine freie version von Ultimatedefrag.
Ich würde dir aber trotzdem die neue empfehlen (version 3)

Ostfried
2011-03-02, 12:45:36
o&o kannst du völlig vergessen.
Bringt kein bisschen geschwindigkeit.



Einspruch. Jahrelang regelmäßig und häufig mit WinXP-internem Defrag defragmentiert. Dann Wechsel auf O&O, alle Partitonen (System, Spiele, Datengrab) complete/name defragmentiert, Ergebnis:

Avira Antivir-Durchlauf von 1 Stunde 4 Minuten auf 56 Minuten verkürzt.

Bootzeit erheblich schneller.

Levelladezeit wie bspw. bei Crysis durchaus spürbar schneller.

Und auch das Argument mit der Bildvorschau kann ich völlig unterschreiben.

Sowie zur urbanen Legende, defragmentieren (bzw. defragmentieren nach Name) bringe nichts. Mindestens die Antivirzeit ist ein empirisch belegter Gegenbeweis.

Wer natürlich mehr fps erwartet oder so etwas...

Ostfried

Edith sagt: Das ganze natürlich mit deaktivierter Zoneneinteilung.

Rooter
2011-03-03, 00:00:45
Mit Ultimatedefrag empfehle ich dir die Consolidate!Warum nicht "Auto"? Der Modus macht am Ende auch Consolidate, und noch mehr.

Ich würde dir aber trotzdem die neue empfehlen (version 3)Ist die 3er mittlerweile brauchbar? ich hatte vor Monaten mal die 3.0.0.15 ausprobiert, die hat das Defrag aber vorzeitig beendet, trotz etlicher noch fragmentierter Dateien.

Mindestens die Antivirzeit ist ein empirisch belegter Gegenbeweis.Empirisch eher nicht, AntiVir wird die Verzeichnisse schlicht der Reihe nach, sprich alphabetisch, durchsuchen. ;)

MfG
Rooter

Ostfried
2011-03-03, 01:02:29
Empirisch eher nicht, AntiVir wird die Verzeichnisse schlicht der Reihe nach, sprich alphabetisch, durchsuchen. ;)

MfG
Rooter

Und? Bekräftigt das die Aussage, defragmentieren (nach Name oder nicht) bringt nichts? Nein, es ist ein klarer Fakt dafür, dass es eben doch etwas bringt.

Und mehr wollte ich ja nicht sagen. Aber auch nicht weniger.

LG
Ostfried