PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Defrag vor Backup?


Gast
2007-12-10, 22:13:18
Es gibt Leute die behaupten, daß man vor einem Backup die Platte unbedingt defragmentieren sollte, weil man nach dem Zurückspielen die schon im Image fragmentierten Dateien dann wieder auf der Platte kaum noch defragmentiert kriegt.

Stimmt es?

BIG
2007-12-10, 22:30:12
Sowas hab ich noch nie gehört, warum auch?

Wenn du ein 1:1 Image erstellst, kommen die Daten ebenfalls wieder 1:1 zurück bei einer evtl. Wiederherstellung.

Wenn du nur einzelne Dateien sicherst, werden die ohne "Lücken" gesichert.

Lokadamus
2007-12-10, 22:35:40
... weil man nach dem Zurückspielen die schon im Image fragmentierten Dateien dann wieder auf der Platte kaum noch defragmentiert kriegt.
Stimmt es?mmm...

Nö, das ist Blödsinn.

Defragmentieren vor einer Imageerstellung hat den Vorteil, dass die HDD danach auch schon defragementiert ist, wenn das Image zurückgespielt wird.

Wenn nur einzelne Dateien/ Ordner gesichert werden, ist das Banane.

Die HDD sollte in regelmässigen Abständen eh defragmentiert werden, egal, ob ein Backup gemacht werden soll oder nicht.
Die Frage, wann es sinnvoll ist, ist nicht leicht zu beantworten, da es vom Anwender und dessen Nutzung des PCs abhängt. Alle paar Monate eine Defragmentierung durchzuführen ist aber in Ordnung.
Server in Firmenumgebungen werden wohl eher selten bis gar nicht defragmentiert, die sollen nur laufen und ihre Dienste anbieten.

Gast
2007-12-10, 22:39:56
Jein. Es ging um das Zurückspielen eines ganzen Images. Dann können neue Dateien zwar defragmentiert werden, die alten aus dem fragmentierten Image lassen sich aber schwer bis garnicht defragmentieren.

Lokadamus
2007-12-10, 22:48:31
Jein. Es ging um das Zurückspielen eines ganzen Images. Dann können neue Dateien zwar defragmentiert werden, die alten aus dem fragmentierten Image lassen sich aber schwer bis garnicht defragmentieren.mmm...

Wie gesagt, das ist Blödsinn.
Wenn du ein Image zurückspielst, sind die Daten so wie bei der Imageerstellung. Danach kannst du jederzeit das interne Defrag oder ein anderes Defragprogramm drüberlaufen lassen und es wird jede Datei defragmentiert, ausser man benutzt das falsche Programm/ die falsche Einstellung dafür.

Epizentrum
2007-12-11, 02:49:47
Die Logik gebietet vor der Defragmentierung zu Archivieren - falls bei der Defragmentierung was schief geht :D.

Gast
2007-12-11, 16:37:02
Ich habe das schon mehrfach ausprobiert, die fragmentierten Stellen nach dem Image aufspielen konnten nicht mehr defragmentiert werden.
Dieses bezieht sich aber nur auf die Systempartition, die ich komplett sichere!
Bei reinen Daten-Partitionen habe ich es nicht ausprobiert. Sichere meine Sachen mit Drive Image 7.

Rooter
2007-12-11, 16:59:41
Dateien die in Gebrauch sind können nicht defragmentiert werden. Das ist aber immer so, nicht nur nach einem Image.
Du bist auch der Erste der so ein Problem hat. :|

MfG
Rooter

Gast
2007-12-11, 17:06:51
wenn ich vor dem image alles defragmentiere, kann ich auch nachdem das image wieder aufgespielt ist nach einiger zeit alles defragmentieren, ohne das fragmentierte über bleiben. ich wundere mich auch darüber, denn ansich ist es ja unlogisch?!?!

looking glass
2007-12-11, 17:23:44
Ähm, sry wen ich hier jetzt völlig dazwischen funke, aber ich erinnere mich an einen Defragtooltest der c't oder ix, k.A. eine der beiden war es jedenfalls und die hatten ein echtes Problem beim testen und zwar jenes, das bei der Erstellung von Images die Daten eh zusammen geschrieben werden, im Grunde also defragmentiert wurden. Diesen Umstand konnten sie nur durch einen speziellen dd Parameter unterbinden, damit jedes Defragtool die gleiche, kaputt fragmentierte Partition bekam, die für den Vergleichstest nötig war.

Sofern es sich also nicht um eine bit für bit Kopie handelt, sondern wirklich nur um ein Image, kann man sich das auch schenken.

P.S. Wen gewünscht schau ich mal in die Heft-CDs, wo das aufgedrüselt wurde.

Gast
2007-12-11, 20:23:37
Ähm, sry wen ich hier jetzt völlig dazwischen funke, aber ich erinnere mich an einen Defragtooltest der c't oder ix, k.A. eine der beiden war es jedenfalls und die hatten ein echtes Problem beim testen und zwar jenes, das bei der Erstellung von Images die Daten eh zusammen geschrieben werdenJa wie? Wenn ich ein Image mache, dann habe ich doch bzw. hätte ich gerne nach dem Zurückspielen 1:1 Block für Block das gleiche drauf.

RaumKraehe
2007-12-11, 20:32:29
Ich habe das schon mehrfach ausprobiert, die fragmentierten Stellen nach dem Image aufspielen konnten nicht mehr defragmentiert werden.
Dieses bezieht sich aber nur auf die Systempartition, die ich komplett sichere!
Bei reinen Daten-Partitionen habe ich es nicht ausprobiert. Sichere meine Sachen mit Drive Image 7.

Dann läuft da etwas ganz böse schief weil das einfach Blödsinn ist. Daten sind Daten, vor und nach dem Backup.

Der Defragmentierer ist das vollkommen schnuppe.

Ein Defrag-Algorithmus mach doch nichts weiter als Dateien die weit verstreut auf der Platte liegen wieder in hintereinander liegende Blöcke zu schreiben. Und da ändert ein Image-Backup herzlich wenig dran.

Lokadamus
2007-12-11, 20:37:36
P.S. Wen gewünscht schau ich mal in die Heft-CDs, wo das aufgedrüselt wurde.mmm...

:| Schlag nochmal nach, das war in einer ct. Mit dem Tool von der ct müsste man die Ausgabe relativ schnell ausfindig machen können.

Ich kann mich daran erinnern, dass sie Images erwähnt haben, dass war meiner Erinnerung aber eher so, dass sie das benutzt haben, um sicher zu gehen, dass sie immer eine völlig verwahrloste HDD als Testobjekt hatten.
Dass beim Zurückspielen des Images irgendwas defragmentiert wurde, wäre mir neu.

looking glass
2007-12-11, 22:19:26
Genau darum gings ja, sie wollten die verwahrloste Platte haben, um die Defragtools testen zu können, aber die zurückgespielten Images hatten dann nicht mehr den zu defragmentieren Umfang, weshalb sie dann auf dd gegangen sind.

Hab den Artikel wiedergefunden, ist nur ein Nebensatz aus dem Test der ix Januar 2003 "Etwas schwieriger als erwartet ist das Klonen der Partition für so eine reproduzierbare Umgebung. So haben die Tools zur Erstellung von Festplatten-Images wie beispielsweise Nortons Ghost oder DriveImage von Powerquest eine defragmentierende Wirkung. Erst der Unix-Befehl dd kann hier Abhilfe schaffen und sorgt für gleiche Ausgangsbedingungen."


P.S. Dieser Umstand dürfte systembedingt sein, was die Arbeitsweise von Imagern anbelangt, da diese nur die wirklichen vorhandenen Daten sichern und ins Image aufnehmen, damit die Imagegrösse schön klein bleibt, hingegen dd und auch das vista Imageprogramm, die komplette Partition sichert, so wie sie ist, auch mit dem ganzen freien Platz. Dadurch würde ich sagen, schließt ein Imager ala Ghost alle möglicherweise vorhandenen Löcher, ob es jedoch auch die Dateien zusammen führt, k.A. möglicherweise, möglich und vielleicht wahrscheinlicher, es bleibt bei der Dateienfragmentierung, nur gibt es keine Löcher mehr, es steht alles hintereinander weg.

Wen die zweite Vermutung richtig ist, wäre ein Image in der Arbeitsweise nicht besser und nicht schlechter was den Defragbeitrag angeht, als das windowseigene Defragprogramm seit Win2000, da auch jenes nicht mehr versucht die Dateisegmente zusammenzuführen, sondern nur noch Lücken schließt (was witzig ist, den bis WinMe hat das Defragprogramm von Windows zumindest versucht die Dateisegmente zusammen zu führen). Insofern könnte ein besseres Defragtool ala O&O vielleicht doch was bewirken.

Wie gesagt, ich weiss nicht, wie ein Imageprogramm arbeitet, sollte es jedoch eher wie ein Brennprogramm funktionieren, was eine ISO erstellt, werden die Dateisegmente wieder zu einer kompletten Datei zusammengefügt und man hätte tatsächlich keinerlei Fragmentierung mehr.

RaumKraehe
2007-12-11, 22:49:31
Das könnte daran liegen das viele Image-Tools ebend schlicht keine bitgenauen Kopieen von Partitionen anlegen. Dem System ist das auch in aller Regel wurscht. Hauptsache die Dateizuordungstabelle stimmt.

Rooter
2007-12-11, 23:30:43
P.S. Dieser Umstand dürfte systembedingt sein, was die Arbeitsweise von Imagern anbelangt, da diese nur die wirklichen vorhandenen Daten sichern und ins Image aufnehmen, damit die Imagegrösse schön klein bleibtDer darf ja nach FAT/MFT unbenutzte Sektoren ruhig weglassen (genau so wie ja auch das Pagefile weggelassen wird) aber die vorhandenen Daten sollten dann doch wieder an ihrem ursprünglichen Platz zum liegen kommen.

möglicherweise, möglich und vielleicht wahrscheinlicher, es bleibt bei der Dateienfragmentierung, nur gibt es keine Löcher mehr, es steht alles hintereinander weg.
Dann müsste der Imager ja in der Lage sein die MFT von z.B. NTFS abzuändern, etwas das z.B. selbst Linux noch nicht sehr lange kann.

Ich kann die Feststellung der ix hier beim besten Willen nicht nachvollziehen. :confused:

MfG
Rooter

Gast
2007-12-11, 23:35:42
Ich auch nicht. Wenn ich einen Image von einem fehlerhaften NTFS mache habe ich nach dem Backup genauso identsich fehlerhaftes NTFS. Nur als Beispiel.

alles ist nach dem Backup IDENTISCH wie vor dem Backup.

looking glass
2007-12-12, 00:19:00
Wie gesagt, ich hab mich nur an den Artikel erinnert und eben an das Problem in jenem mit den Imagern und dem Defragmentierungsgrad.

Von dd weiss ich, das es Sektor für Sektor sichert, ich gehe davon aus, das auch das Vistaimageprogramm so vorgeht.

Es müsste relativ einfach sein, diesen Umstand zu überprüfen, eine detailierte Defragmentierungsüberprüfung vor der Imageerstellung und eine nach Wiederaufspielung sollte klären, ob dem so ist, wie es die ix dort schrieb, oder nicht.

Btw. Gast, ich mag mich irren, aber ist BackUp nicht der falsche Begriff, soweit mir bekannt, ist die Datensicherung, also das BackUp dateisystemunabhängig, es werden also nur die Dateien gesichert, jedoch keine Dateisystemdaten.

Razor
2007-12-12, 02:05:18
"Defrag vor Backup" ist absolut unsinnig.
Punkt.

Ob Defragmentieren in Zeiten von NTFS und ausreichend freiem Speicherplatz überhaupt noch Sinn macht, steht auf einem anderen Blatt.
(soll hier nicht das Thema sein... ICH defragmentiere allerdings NIE ;-)

Es geht hier aber ums Backup...

Ob Sektor-weise kopiert wird oder nicht, ist vollkommen unerheblich, denn beides hat zumindest NICHTS mit nachfolgenden Defragmentier-Aktionen zu tun (sodenn man sie nun 'braucht' ;-).

'Intelligente' Clone-Programme (wie z.Bsp. Ghost) kopieren die Festplatte natürlich NICHT Sektor-weise... was auch vollkommen unsinnig für eine Datensicherung wäre. Bestimmte System-Dateien werden überhaupt nicht gesichert (wie z.Bsp. das Pagefile), sondern nur 'notiert' - im Falle eines Restores also neu (leer) mit gleichen daten angelegt. Und selbstverständlich kopieren solche Programme nicht nur, sondern komprimieren das Image natürlich auch... teilweise ganz erheblich, aber eigentlich immer im Verhältnis 2:1 (vorher:nachher). Und ebenso selbstverständlich werden die Daten im Falle des Restores vollkommen defragmentiert auf die Platte zurück geschrieben...

Wenn man also eine wirklich vollständige Defragmentierung der Platte wünscht: sichern (clonen) und wiederherstellen!
:D

Und klar... wer ein bereits defektes NTFS clont, sichert dies natürlich mit, wovor das Clone-Programm aber warnt.
Empfehlenswerter ist es, die betroffene NTFS-Partition vor dem Backup zu reparieren...

Ist die Platte defekt (und deswegen auch das NTFS 'zerschossen'), ist die Gefahr recht groß, dass auch bei einem "Sector-Copy" Müll kopiert wirde... wenn eine solche Aktion nicht schon mitten drin abgebrochen wird.

Razor

Rooter
2007-12-12, 19:01:25
Wie wärs wenn jemand der sowieso demnächst ein Image erstellen will die Sache mal testet!? Analyseergebnis des M$-Defrag vor dem erstellen des Image und nach dem zurückspielen als Screenshot speichern. Ich hab ATM keinen Platz für ein Image von C:, muss mal wieder aufräumen... :biggrin:

MfG
Rooter

Rooter
2008-05-23, 17:50:54
Habe das jetzt mal ausprobiert. Das obere Bild wurde unmittelbar vor dem Image aufgenommen, das untere nachdem mit Norton Ghost 2003 ein Image erstellt und sofort wieder zurückkopiert wurde.
33117
Es wirkt also doch defragmentierend. Frage mich nur woher die wissen wie man NTFS beschreibt. :confused:

MfG
Rooter

Gast
2008-05-23, 17:54:09
Es wirkt also doch defragmentierend. Frage mich nur woher die wissen wie man NTFS beschreibt. :confused:


wird wohl gut sein, dass sie wissen wie man ntfs beschreibt und nicht irgendwas kaputt macht.

looking glass
2008-05-23, 18:01:49
An die NTFS Spezifikationen kommt man ja durchaus heran, um Produkte zu entwickeln, die Spezifikation unterliegt halt einer NDA, insofern eigentlich nicht verwunderlich, grade für großen ala Acronis ,oder Norton.

Ich finde es aber gut, das jemand das nun mal getestet hat, interessant wäre dazu gewesen, was die Defragauswertung in Bezug auf Dateifragmentation aussagt(e), also ob durch die Imagerückspielung die Dateifragmente zusammen geführt wurden und in welcher Größenordnung das passierte.

ZilD
2008-05-23, 19:40:41
kommt auf die defragmentierungsmethode drauf an.
die hauseigene windows version kannst du da gleich mal vergessen - wenn defragmentieren dann empfehle ich eine anordnung der daten nach ordnernamen/verzeichnissen.

bei o&o defrag nennt sich das complete/name
hat aber nur sinn auf systemplatten.

es gibt generell keine perfekte defragmentierungsmethode - eine jede hat vor und nachteile.

Stealth Methode - Geringe Ressourcen, perfekte Performance
Die neue Stealth Defragmentierung ist eine exklusive Neuerung vom Vorgänger O&O Defrag V4 und bietet sich vorallem für Server und Highendcomputer an, die permanent mit hoher Geschwindigkeit laufen müssen. Diese Defragmethode arbeitet, sehr zum Wohl der freien Ressourcen, nur minimal im Hintergrund und sorgt für eine grundlegende Ordnung auf der Festplatte. Vor allem bei Festplatten mit gewaltiger Dateianzahl und Größe bietet sich diese besonders flinke Art an. Sie ist also auf minimalen Ressourcenverbrauch und große Festplatten ausgelegt, weshalb Sie nicht so gründlich arbeitet wie die anderen Methoden aber der Windows Tweaks Test zeigt: Ein leichter Performanceschub wird erreicht.




Space - die beste aller Methoden für das erste Mal
Diese Defragmentierung ist für besonders stark fragmentierte Festplatten gedacht, dauert nicht lange und ist trotzdem sehr effektiv. Die Daten werden zusammengefasst und der freie Raum (Space) wird optimal genutzt. Gerade diese sollten Sie anwenden, wenn Ihre Festplatte bisher noch nicht von O&O Defrag V6 angetastet wurde. Der CPU-Verbrauch und die etwas starke RAM-Belastung des Vorgängers wiederholten sich in unserem Test der V6 nicht mehr: Das Prozessor-/Arbeitsspeichergespann hatte noch einige Ressourcen frei, was sogar noch die lockere Arbeit während der Defragmentierung ermöglicht.

Die Performancevorteile sind bei stark fragmentierten Festplatten sofort spürbar und man freut sich über die wiedergewonnene Geschwindigkeit und die freigeschaufelten Ressourcen.



Complete/NAME - Alphabetische Ordnung auf ihrer Festplatte
Hier werden Dateinamen nach dem Anfangsbuchstaben auf der heimischen Festplatte angeordnet. Diese Methode braucht zwar besonders viel Zeit, beschleunigt aber die Arbeit von Systemen, die sich nicht ändern bzw. auf denen nur Windows-Systemdateien liegen.

Beispielsweise werden alle Dateien des Ordners Windows an eine Stelle verschoben, weil er mit W anfängt. Da diese Dateien nun zusammenliegen können Sie schneller laden, was oftmals ein Plus an Geschwindigkeit bedeutet.




Complete/DATE - Die Zeit spielt eine Rolle
Besonders für Serverdatenbanken ist diese Methode ausgerichtet, da sie die Dateien mit der neuesten Änderungen ans flinke Ende der Festplatte für erneuten schnellen Zugriff verschiebt und die kaum benutzten Daten an den langsamen Anfang verschwinden lässt.

Diese Methode ist, wie oben erwähnt, nur bei Datenbanken empfehlenswert. Die Betriebssystemdateien und Programme sollten auf solchen Computern nicht geändert werden. Falls diese Vorraussetzung erfüllt wird, können Sie sich mit Compete/Date anfreunden.




Complete/ACCESS - Nach Zugriffen optimierte Festplatte
Hier werden Daten, die öfter benötigt werden an das schnellere Ende der Festplatte verfrachtet während Dateien, die schon Staub ansetzen und schon Ewigkeiten nicht mehr in Gebrauch waren, an den langsameren Anfang kommen. Der Vorteil ist zudem, dass diese selten benötigten Dateien dort auch bleiben und nicht mehr wieder defragmentiert werden müssen.

Gast
2008-05-23, 20:54:14
Es wirkt also doch defragmentierend.

So mach ich es seit jahren. Gute Image-Tools (Acronis, Norton-Ghost) machen jedes Defrag-Tool überflüssig.

looking glass
2008-05-23, 21:05:33
kommt auf die defragmentierungsmethode drauf an.
die hauseigene windows version kannst du da gleich mal vergessen - wenn defragmentieren dann empfehle ich eine anordnung der daten nach ordnernamen/verzeichnissen.

bei o&o defrag nennt sich das complete/name
hat aber nur sinn auf systemplatten.

es gibt generell keine perfekte defragmentierungsmethode - eine jede hat vor und nachteile.


Ja, aber was hat das mit dem Thema zu tun, das sich im laufe des Threadlebens entwickelte? Ich bezweifle doch mal ganz stark, das sich der herausgestellte "Defragmodus" auf "Access" aufbaut, oder auf "Time", am wahrscheinlichsten sind entweder "Zusammenführung der Dateien geordnet nach erstes Fragment", oder "Zusammenführung basierend auf Dateiname".

Rooter
2008-05-24, 01:16:45
interessant wäre dazu gewesen, was die Defragauswertung in Bezug auf Dateifragmentation aussagt(e), also ob durch die Imagerückspielung die Dateifragmente zusammen geführt wurden und in welcher Größenordnung das passierte.
Natürlich wurden Dateifragmente zusammengefüht. Oder wie meinst du das? Jedenfalls war die Datei- und Speicherplatzfragmentierung danach bei 0%.
Leider habe ich nicht auf die Orderfragmentierung geachtet, das wäre interessanter gewesen, zumal die Defrag-Freewaretools die ich kenne da gar nix machen (bei den grossen kommerziellen á la O&O weis ich's nicht).

Ich schätze mal es geht nach Dateinamen. Bei der Erstellung werden die Ordner schlicht der Reihe nach gelesen, von "aspi" bis zu "Windows" bzw. den paar Dateien in C:/
Das Ganze ist halt nur ein (angenehmer) Nebeneffekt der Arbeitsweise, etwa so als wenn man alle Dateien auf eine andere Partition und wieder zurück verschiebt.

MfG
Rooter

looking glass
2008-05-24, 01:41:04
Naja, es hätte auch sein können, das nur die Löcher draußen waren (Speicherplatz), die Dateien aber trotzdem noch fragmentiert sind, aber wen die Dateifragmentierung 0% anzeigte, wurden sie ja zusammen geführt.


Interessant wäre in dem Zusammenhang der Zeitvergleich - Defragger vs. Imagetool. Ich würde meinen das Imagetool mit Erstellung und zurück spielen dürfte wohl gewinnen, was das anbelangt (sofern auf eine Festplatte augelagert wird).

HeldImZelt
2008-05-24, 04:08:08
Einwurf! :smile:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6445778#post6445778

Der Fall, dass Dateien nicht defragmentiert werden können, kann aber durchaus vorkommen, wenn Platzmangel auf der Platte herrscht. O&O spricht in der Anleitung glaube ich von mindestens 5%-10% freien Speicher, der mindestens auf der Partition vorherrschen sollte. Bezüglich sektorieller Struktur unverständlich, aber ist mir selbst schon mehr als einmal passiert.

Gast
2008-05-24, 16:07:48
Der Fall, dass Dateien nicht defragmentiert werden können, kann aber durchaus vorkommen, wenn Platzmangel auf der Platte herrscht. O&O spricht in der Anleitung glaube ich von mindestens 5%-10% freien Speicher, der mindestens auf der Partition vorherrschen sollte.


es hängt weniger davon ab wieviel freier platz vorhanden ist, sondern wie groß die dateien sind.

um eine datei defragmentieren zu können muss mindestens die gesamte dateigröße am stück frei vorhanden sein. ist das nicht der fall kann die datei entweder garnicht (wenn der freie speicherplatz auf der partition kleiner als die größte datei ist), oder nur sehr langsam (das defrag-programm muss erstmal genug freien speicherplatz am stück finden) defragmentiert werden.

looking glass
2008-05-24, 16:22:48
Mhhh, interessant, demzufolge also nach "Time", warum mit dieser Methode? Oder anders gefragt, warum haben die Jungs das nicht erkannt (Nebeneffekt Defrag) und somit nicht einfach einstellbare Dateistrukturierungsmuster mit eingegeben?

Rooter
2008-05-24, 18:31:32
Interessant wäre in dem Zusammenhang der Zeitvergleich - Defragger vs. Imagetool. Ich würde meinen das Imagetool mit Erstellung und zurück spielen dürfte wohl gewinnen, was das anbelangt (sofern auf eine Festplatte augelagert wird).
Bei meiner 10 GB Systempartition dauerte die Erstellung unter 5 Minuten (hohe Kompression) und das zurückspielen etwas über 1 Minute. Das Imagetool ist also eindeutig schneller.

Mhhh, interessant, demzufolge also nach "Time", warum mit dieser Methode?
Was meinst du eigentlich mit "Methode TIME"?

Oder anders gefragt, warum haben die Jungs das nicht erkannt (Nebeneffekt Defrag) und somit nicht einfach einstellbare Dateistrukturierungsmuster mit eingegeben?
Weil es ein Imagetool ist und ihnen das vermutlich egal war. :tongue:
Gibt es dieses Feature denn bei neueren Imagetools, z.B. Acronis?

MfG
Rooter

looking glass
2008-05-24, 18:57:53
Nach Zeit, bei O&O wäre das also Methode "Complete/Date" (siehe ZilDs Beitrag auf dieser Seite weiter oben).

Naja, verständlich schon, an sowas denkt wohl kaum jemand, wen er ein Imagetool programmiert, jedoch sind die großen schon bei Version 8 oder ähnliches, da dürfte nur noch Bugbeseitigung, Hardwareerkennung und ganz kleine neue Sachen kommen, warum also sich nicht über sowas mal Gedanken machen und einbinden, immerhin wieder etwas, was Konkurrent X nicht hat.

(del)
2008-05-24, 19:22:04
So mach ich es seit jahren. Gute Image-Tools (Acronis, Norton-Ghost) machen jedes Defrag-Tool überflüssig.Ja natürlich. Statt zu defragmentieren spielt man einfach einen Image auf. Klasse :D In dem Fall reicht auch Wincontig.

@Rooter
Ok. 10GB Systempartition hat was ;) Wieviel Daten sind das? ODer ist sie mit 10GB belegt?

@ZilD
Welchen tieferen Sinn ergibt eine Defragmeniterung bzw. das "Aufreihen" der Dateien nach Alphabet? Außer jetzt, man hat eine Partition mit 1000 "fertigen" Fotos u.ä. Sonst ist das für mich absolut idiotisch.
Wenn, dann will ich die Dateien die beim Booten gebraucht werden und selten bis garnicht geschrieben/oft gelesen am Anfang der Partition haben und Dateien die öfters geschrieben werden und ihre Größe daher ständig ändern, am Ende des belegten Platzes.

Diese Informationen hält NFTS zu jeder Datei parat und diese darf der Defrag auch ruhig schlau interpretieren. Das machen Imagetools wohl kaum.

looking glass
2008-05-24, 20:34:51
Nun ja, dafür wäre aber auch nur ein Interpreter erforderlich, der diese vorgehaltenen Daten von NTFS ausliest und dem Image dahingehend Daten liefert, das Image müsste nur um eine weitere Layerschicht erweitert werden, wo diese Daten festgehalten wurden, um beim zurück spielen, eben die angedachte Reihenfolge auf der Platte zu gewährleisten.

Btw. hat ext2/3 auch so eine "Zugriffsstatistik"?

Gast
2008-05-24, 20:44:05
Ja bei ext2 gibt es auch zu jeder Datei ein Erstellungsdatum, Datum der letzten Änderung und des letzten Zugriffs

antzen
2008-05-25, 13:53:39
So mach ich es seit jahren. Gute Image-Tools (Acronis, Norton-Ghost) machen jedes Defrag-Tool überflüssig.

:| ich weiß ja nicht wie oft du deine images wieder einspielst, aber ich ziehe backups für'n notfall und mußte nur sehr selten das system so wiederherstellen.
deshalb brauche ich ein defrag-programm und würde es deswegen nicht als überflüssig bezeichnen.

Rooter
2008-05-25, 14:35:35
Nach Zeit, bei O&O wäre das also Methode "Complete/Date" (siehe ZilDs Beitrag auf dieser Seite weiter oben).
Dann kommt dem Verhalten von Ghost aber NAME am nächsten.

Ok. 10GB Systempartition hat was ;) Wieviel Daten sind das? ODer ist sie mit 10GB belegt?Etwa zu 5,5 GB belegt, pagefile und hiberfil inklusive. Ist nur XP + Programme drauf, paar größere Spiele sind auf D:

Welchen tieferen Sinn ergibt eine Defragmeniterung bzw. das "Aufreihen" der Dateien nach Alphabet?
Der Gedankengang ist der das nach z.B. der Opera.exe die opera.dll und die Opera6.ini geladen werden und die dann gleich um die Ecke liegen. Aber wer weis ob dem wirklich so ist!?

MfG
Rooter

HeldImZelt
2008-05-25, 16:11:04
Welchen tieferen Sinn ergibt eine Defragmeniterung bzw. das "Aufreihen" der Dateien nach Alphabet?
Bei 'Complete/Name' werden Ordnerinhalte zusammengefasst.

Gast
2008-05-25, 16:13:32
:| ich weiß ja nicht wie oft du deine images wieder einspielst, aber ich ziehe backups für'n notfall und mußte nur sehr selten das system so wiederherstellen.
deshalb brauche ich ein defrag-programm und würde es deswegen nicht als überflüssig bezeichnen.

Im Schnitt alle zwei Monate. Öfter braucht man auch nicht defragmentieren...

Gast
2008-05-25, 16:16:10
Im Schnitt alle zwei Monate.

Meine Backups erstelle ich natürlich in kürzeren Zeiträumen.