PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Defragmentierung heutzutage nutzlos?


Dane
2009-01-27, 13:32:37
Hi!

Ich habe hier in der Schule gerade meinen Rechner neu aufgesetzt und habe später dann noch per AusLogics Disk Defrag die Platte defragmentiert. Das hat mein Ausbilder gesehen und meinte das dies heutzutage nicht mehr nötig bzw. währe überflüssig. Wehalb? Wegen den neuen Festplatten? Dem Dateisystem NTFS? Weil die Rechner mittlerweile so schnell sind?

Rente
2009-01-27, 13:39:34
Zum Teil wegen NTFS, damit fragmentiert die Festplatte einfach nicht mehr so stark.
Richtig ist die Aussage allerdings nicht, solang man nur die Windows-Standard-Defrag und ähnlich einfache "Tools" einbezieht mag das stimmen, sobald aber Programme wie O&O Defrag oder Diskeeper zum Einsatz kommen kann es einen beschleunigenden Effekt haben, hängt natürlich von vielen anderen Punkten ab (Speicherausbau, CPU, was es überhaupt für eine Platte ist, usw.), sowie den richtigen Einsatz, also im Fall von O&O z.B. Complete/Name oder Complete/Access.

nn23
2009-01-27, 13:44:03
NTFS defragmentiert praktisch garnichts.
Wenn du oft Dateien kopierst/herunterlädst und löschst bringt das auf jeden Fall sehr viel.
habe hier O&O im Einsatz, von der Windows internen Defrag-Funktion halte ich nicht viel.

Kannst deinem Lehrer das ja mal vorführen, mit einem PC der das letzte Jahr nicht defragmeniert wurde.
Neustart fragmentiert, und einmal nach dem defragmentieren.

Gast
2009-01-27, 13:55:25
Wichtig bei OO für die Systempartition die layout.ini mit einbeziehen bei den Einstellungen. Damit werden die Prefetchdaten an den Anfang der Platte gelegt.

GBWolf
2009-01-27, 14:02:09
Nach einer Neuinstallation halte ich es auch für Sinnfrei, schließlich partitionierst und formatierst du da vorher eh.

Aber bei Rechnern die über Jahre nicht neuinstalliert werden lohnt sich definitiv mal eine Defragmentierung, egal bei welchem Dateisystem.

Rooter
2009-01-27, 14:07:09
Wehalb?Frag das doch deinen Ausbilder. ;)

Defragmentieren macht schon noch Sinn, insbesondere bei Ordnern mit vielen (tausenden) Dateien dauert das Einlesen ewig weil die Directoryblöcke wild verteilt sind. Bei Dateien kommt's halt drauf an was es ist: Wenn eine MP3 aus 10 Fragmenten besteht bekommst du das beim abspielen eh nicht mit, genauso bei einem CD- oder gar DVD-Image das aus einem dutzend Teilen besteht. Das Vista Defrag packt z.B. Fragmente >64MB gar nicht mehr an.

Aber ein paar mal pro Jahr defragmentieren reicht, der Effekt wenn man das z.B. täglich macht, ist imho den Aufwand und Laufwerksverschleiß nicht wert.

MfG
Rooter

Vanilla
2009-01-27, 14:10:08
Hi!

Ich habe hier in der Schule gerade meinen Rechner neu aufgesetzt und habe später dann noch per AusLogics Disk Defrag die Platte defragmentiert. Das hat mein Ausbilder gesehen und meinte das dies heutzutage nicht mehr nötig bzw. währe überflüssig. Wehalb? Wegen den neuen Festplatten? Dem Dateisystem NTFS? Weil die Rechner mittlerweile so schnell sind? Vielleicht kannst du dazu etwas auf einer Microsoft-Seite finden, denn in diesem Fall ist es interessanter was der Entwickler des Betriebsystems bzw. des Dateisystem dazu sagt als dein Ausbilder.
Wieso hast du deinen Ausbilder nicht direkt mal gefragt wo er diese Kenntnis hernimmt. Eventuell kennt er ja schon ein zuverlässige Quelle und wir machen uns hier umsonst Gedanken.

Gast
2009-01-27, 14:15:35
Nach einer Neuinstallation halte ich es auch für Sinnfrei, schließlich partitionierst und formatierst du da vorher eh.

Aber bei Rechnern die über Jahre nicht neuinstalliert werden lohnt sich definitiv mal eine Defragmentierung, egal bei welchem Dateisystem.

lustigerweise ist die Platte genau nach einer Neuinstallation sowas von quer verstreuten Dateien zugemüllt das sich ein defrag-Durchlauf gerade dann am meisten lohnt.

Die Dateien die kopiert werden, werden nicht schön in Reihe aneinandergelegt, schon gar nicht an einem Stück oder mit System. NTFS hin oder her...

GBWolf
2009-01-27, 14:22:43
lustigerweise ist die Platte genau nach einer Neuinstallation sowas von quer verstreuten Dateien zugemüllt das sich ein defrag-Durchlauf gerade dann am meisten lohnt.




Am meisten Lohnt es sich imho wenn viele Daten installiert und gelöscht wurden, also meist nacht langer Nutzung des Rechners.

Aber okay, du bist da anderer Ansicht.

Gast
2009-01-27, 15:17:29
Man kann das verallgemeinern: Microsoft Dateisysteme (Fat, NTFS) scheren sich nicht wirklich um die Anordnung auf Platte.

Unix/Linux: Ext3, RaiserFS, ZFS achten entweder drauf oder nutzen andere Mechanismen, um Fragmentierung bzw. den Auswirkungen von Fragmentierung entgegenzuwirken.

Ob man (unter Windows) Defragmentierung in Zeiten von Superfetch noch braucht ist aber eine andere Sache...

nn23
2009-01-27, 15:44:53
Was hat De/Fragmentierung mit Superfetch zu tun?

Gast
2009-01-27, 17:11:15
er meint wohl weil mit Superfetch gewisse Daten im Voraus geladen werden, welche somit die Zeit die die HD braucht um die verteilten Dateien zu lesen, beinahe kompensiert werden.

naja das ganze ist mit den SSD's wohl eh bald unnötig, wobei man auch da unterschiedliches liest. Von "auf keinen Fall" bis zu "bringt noch mehr Performance".

Gast
2009-01-27, 17:29:23
wieviel sinn die defragmentierung macht hängt natürlich in erster linie vom zustand der platte ab.

wenn die fragmente nicht zu klein sind beeinflussen sie die performance kaum, wenn beispielsweise eine 1GB-datei auf 10 fragmente verteilt ist, ist das ziemlich egal, der aufwand für die defragmentierung aber sehr groß.

viele kleine fragmente können die performance natürlich recht stark beeinflussen.

Lokadamus
2009-01-27, 17:36:21
lustigerweise ist die Platte genau nach einer Neuinstallation sowas von quer verstreuten Dateien zugemüllt das sich ein defrag-Durchlauf gerade dann am meisten lohnt.

Die Dateien die kopiert werden, werden nicht schön in Reihe aneinandergelegt, schon gar nicht an einem Stück oder mit System. NTFS hin oder her...mmm...

Jup, selbst der interne Defragger von Windows erkennt, dass die Dateien zerstreut abgelegt wurden und packt sie alle in den vorderen Bereich :).
Das hat mein Ausbilder gesehen und meinte das dies heutzutage nicht mehr nötig bzw. währe überflüssig. Wehalb? Wegen den neuen Festplatten? Dem Dateisystem NTFS? Weil die Rechner mittlerweile so schnell sind?Ist der Ausbilder allgemein kompetent? Anfang der 90er hat MS damit geworben, dass NTFS keine Fragmente erzeugen würde. Das wurde jahrelang geglaubt, hat sich aber, wie du selber gemerkt hast, als falsch herausgestellt.

Die Festplatten und Rechner im Allgemeinen sind heutzutage schneller, aber dadurch verschwindet das Problem nicht ;).
NTFS "ist" in diesem Fall das Problem und MS wird nur bedingt daran was ändern. Wenn sie ähnlich wie bei FreeBSD Softupdates benutzen würden, dürfte das Problem sich reduzieren, verschwinden wird es dadurch nicht.
Lässt MS nicht bei Vista den internen Defragger automatisch starten, wenn die Kiste im Leerlauf ist? Ich meine darüber was gelesen zu haben und wenn dem so ist, dann brauchen wir auch nicht mehr der Frage nach Sinn und Unsinn von Defraggern nachgehen ;).

Erst mit SSDs verschwindet das Problem, weil es dann keine Leseköpfe mehr gibt. In wie weit dort defragmentieren Sinn macht, muss sich zeigen, an den Zugriffszeiten dürfte sich nichts ändern und dadurch sollte das Defragmentieren überflüssig werden.

Daredevil
2009-01-27, 17:50:06
Darf mich mal selbst quoten ;D


Festplatte2: ( atm. Windows7 Platte, wird die neue Systemplatte )
Western Digital Caviar Blue / 160GB / 1/160 Gigabyte belegt, Fragmentierungsgrad: 22,89%
Hat alles entpackt in 34 Sekunden
Frisch defragmentiert formatiert/defragmentiert sie das ganze in 22 Sekunden

Das ganze aus diesem Benchmark Thread http://www.forum-3dcenter.org/vbulletin/showthread.php?t=444993

Saro
2009-01-27, 22:51:57
Zum Teil wegen NTFS, damit fragmentiert die Festplatte einfach nicht mehr so stark.

NTFS defragmentiert praktisch garnichts.

Komisch für fast garnichts fragmentieren hatte ich letztens nach 2 Monaten eine Fragmentierung von 52%, auf dem Rechner der seit 6 Monaten nichtmehr defragmentiert wurde hatte ich 75%! Also nach "praktisch garnichts" sieht das für mich nicht gerade aus.

LordDeath
2009-01-27, 23:40:47
O&O Defrag und alles vor Vista haben das Problem, dass sie selbst doe Sachen defragmentieren, die so groß sind, dass diese niemals am Stück ausgelesen werden. Bei beiden fangen die Defragmentierer an, eine 10GiB Datei aus zwei Fragmenten quer durch die Partition zu scheuchen, damit alles schön in Fragment wird. Diesbezüglich sind auch Angaben wie "54% Defragmentierungsgrad" nicht wirklich ausschlaggebend.

Mit der Zeit verliert die Defragmentierung immer mehr an Bedeutung, denn bei SSD Platten ist eine zu häufige Defragmentierung schlecht für die Lebensdauer. Außerdem ist dort die so wichtige Zugriffszeit sowieso viel kürzer als bei den heutigen HDDs.

NTFS kann übrigens STARK fragmentieren, wenn ihr die Dateisystemkomprimierung nutzt. Ich hatte da Fälle mit über 10000 Fragmenten...

Gast
2009-01-27, 23:54:00
Man kann das verallgemeinern: Microsoft Dateisysteme (Fat, NTFS) scheren sich nicht wirklich um die Anordnung auf Platte.

Unix/Linux: Ext3, RaiserFS, ZFS achten entweder drauf oder nutzen andere Mechanismen, um Fragmentierung bzw. den Auswirkungen von Fragmentierung entgegenzuwirken.

Ob man (unter Windows) Defragmentierung in Zeiten von Superfetch noch braucht ist aber eine andere Sache...

Das ist ein Irrtum.

Fragmentierung tritt immer auf, bei Unix/Linux Dateisystemen aufgrund der Blockgruppenenanordnung und der geringen größe der Zuordnungseinheiten z.t. deutlich stärker als NTFS, jedoch können diese aufgrund des internen Aufbaus diesen "Makel" bei kleinen Dateien ausgelichen, bei größeren ist NTFS im Vorteil.

mfg

Gast
2009-01-28, 02:05:14
NTFS defragmentiert praktisch garnichts.
Wenn du oft Dateien kopierst/herunterlädst und löschst bringt das auf jeden Fall sehr viel.Paranoid? Wenn man Dateien nicht löscht, kopiert oder verschiebt fragmentiert kein Dateisystem. Auch nicht die von 1986.

Der eine Gast liegt übrigens mal wieder goldrichtig. Nach eine Systeminstallation + Treiber + das was jeder von uns für sich selbst für Grundtools und Anwendungen hält ist auch eine NTFS-Platte stark fragmenitert. Unter w2k, unter XP, unter Vista und auch unter Win7.
Ich weiß nicht wo die DAUs das immer her haben, aber daß NTFS im Gegensatz zu XY sehr wenig fragmentiert ist immernoch genausoein Bullshit wie schon vor Jahren als der erste DAU damit auftauchte.

Was unter NTFS und allen anderen halbwegs modernen Dateisystemen nicht so stark fragmenitert ist seit B+Tree Anordnung die Ordnerstruktur auf dem Laufwerk. Das konnte aber selbst schon der SFS (SmartfileSystem) für den Amiga wie auch einige Dateisysteme davor. Es ist ein alter Hut.

Solange die konventionellen Platten aus den Systemen nicht verschwinden, also Magnetköpfe bewegt werden müßen, ist Defragmentieren genauso ein wichtiges Thema wie es das zu Win95 Zeiten und davor war.

Ob die Defragmentierung nun durch einen Hintergrundtask eines Dateisystems, einen Hintergrunddienst/Hintergrunddaemon oder eine 3rd part Anwendung, die entweder ebenfalls im Hintergrund bei 0 Durchsatzlast oder als Hochlastvorgang angeworfen wird, stattfindet, spielt keine Rolle.
Der Leistung zuliebe sollte defragmentiert werden.

Ein Dateisystem der sich wirklich nennenswert um eine sehr gute Verteilung bemüht existiert nicht, weil sich das sofort extrem stark auf die Schreibleistung auswirken würde. Wobei mir zwar nicht alle Tricks von ZFS bekannt sind, aber ggbf. "wirklich nenneswert" im Vergleich zu einem Hochlastvorgang wird das 100% nicht sein.

Gast
2009-01-28, 02:15:34
Es bleibt zumindest festzuhalten, das der Effekt nicht mehr so stark spürbar ist wie damals, die Datenraten und Zugriffszeiten haben sich mit den Jahren auch verbessert.

Ich bin mit der Zeit langsam davon weggekommen, regelmäßig zu defragmentieren. Erst ein, zweimal pro Woche und dann irgendwann nur noch einmal im Monat und später gar nur noch nach Lust und Laune.
Ehrlich gesagt ist da kein unterschied zu spüren, nicht mal nach einer frischen programminstallation.
ich schätze mal das liegt auch darin begründet, das vieles heute im RAM ausgelagert wird, sowohl vom OS als auch von den programmen selbst und die ladezeiten halten sich eigentlich sehr in grenzen, so das es kaum auffällt.
bei meiner datenplatte defragmentiere ich gar nicht mehr, da ist mittlerweile fast alles rot :D, aber einen Nachteil beim nutzen der dateien habe ich noch nicht bemerkt.

Gast
2009-01-28, 02:40:58
Es bleibt zumindest festzuhalten, das der Effekt nicht mehr so stark spürbar ist wie damals, die Datenraten und Zugriffszeiten haben sich mit den Jahren auch verbessert.So ist es. Ändert an den Grundregeln aber nichts.

und dann irgendwann nur noch einmal im Monat und später gar nur noch nach Lust und Laune.Das ist hier nicht anders. Ich mach das 1x im Monat da sich unter Win der Patchday dafür gut anbietet. Samt Prefetch-Defrag bleibt der Kaltstart seit 18 Monaten bei ~30s und seit 18 Monaten starten alle schon mehrmals geupdaten Tools und Programme ebenfalls unverändert schnell.

Ich könnte warten bis ich das endlich bei der Benutzung wirklich spüre, aber schleichende Prozesse haben es in sich. Auf Eindrücke ala "boah die Kiste wirkt wieder wie befreit" habe ich keine Lust. Ich schaff neue Hardware dafür an, damit sie möglichst jeden Tag das maximal bringt was sie unter optimalen Bedingungen auch wirklich leisten kann. Oder so gesehen nach dem Einrichten brachte.

Eine Festplatte gemessen in MB/s selbst am SATA2-NCQ2-Blahblah ist die langsamste fest verbaute Komponente und bremst sofort alle anderen Komponenten aus sobald sie wiedermal gebraucht wird. Meistens bremst sie auch den Benutzer selbst aus.
PhotoshopCS3 braucht hier seitdem es ihn gibt von einer 320GB IDE 6s bis es oben ist. Contra bezüglich des Defragmentierens existiert für mich nicht.

In der Zeit in der das System im Hochleistungsvorgang die Platten defragmentiert kann ich zB. die Bude staubsaugen. Es kostet mich nie meine Rechnerzeit. Genauso wie das Erstellen von Images von einer WinPE-CD aus.

Gute Nacht und EOD :)

Rente
2009-01-28, 08:15:37
Komisch für fast garnichts fragmentieren hatte ich letztens nach 2 Monaten eine Fragmentierung von 52%, auf dem Rechner der seit 6 Monaten nichtmehr defragmentiert wurde hatte ich 75%! Also nach "praktisch garnichts" sieht das für mich nicht gerade aus.
Mein Beitrag bezog sich auf normale Nutzung, 300 Büro-Rechner (teilweise 6-7 Jahre alt) und ich hatte noch keinen über 60%, selbst das viel genutzte Notebook meiner Lebengefährtin war nach 4 Jahren "erst" kurz vor 60%.

Evtl. täuscht einfach die Erinnerung, aber FAT32 fragmentierte deutlich stärker (meiner Erinnerung nach), da war man schon nach 3-4 Monaten bei 60%.

haifisch1896
2009-01-28, 08:50:47
Also mit XP x64 und NTFS hat es meine Frau aber auch geschafft, in wenigen Monaten auf über 80% zu kommen.
Das dürfte mMn doch nicht soviel mit dem Dateisystem, sondern mit der Häufigkeit vom Erstellen, Kopieren und Löschen von Dateien zu tun haben.

Rooter
2009-01-28, 11:22:08
Was unter NTFS und allen anderen halbwegs modernen Dateisystemen nicht so stark fragmenitert ist seit B+Tree Anordnung die Ordnerstruktur auf dem Laufwerk. Das konnte aber selbst schon der SFS (SmartfileSystem) für den Amiga wie auch einige Dateisysteme davor. Es ist ein alter Hut.Was hat die Fragmentierung mit B-Trees zu tun? Ein Directoryblock nimmt iirc 9 Datei- bzw. Ordnereinträge auf, dann muss ein neuer angelegt werden. Und die werden da angelegt wo grad 'ne Lücke gefunden wird...

Also mit XP x64 und NTFS hat es meine Frau aber auch geschafft, in wenigen Monaten auf über 80% zu kommen.
Das dürfte mMn doch nicht soviel mit dem Dateisystem, sondern mit der Häufigkeit vom Erstellen, Kopieren und Löschen von Dateien zu tun haben.Diese Prozentzahl ist doch eh ziemlich ungenau. Ist meine einzige fragmentierte Datei z.B. ein DVD-Image von 4GB das aus 2 Fragmenten besteht bekomme ich u.U. schon 50% Fragmentierung angezeigt. :rolleyes:

MfG
Rooter

jasihasi
2009-01-28, 12:14:26
Mir ist bei einer 2 Jahre alten XP Installation, die 1 1/2 Jahre nicht mehr defragmentiert wurde, auf einer 30 GB Platte, von der nur noch 2 GB frei waren defrag nach 25% abgeschmiert. Das XP bewegte sich eh nicht so flott (c2d, 2GB Ram), alles rot weiß blau. Naja wie dem auch sei, defrag ließ sich nicht mehr zur weiteren Zusammenarbeit überreden, so schleppt sich das Dateisystem weiter über die Zeit.

Darauf ein paar Games deinstalliert, jetzt sind 8 GB frei, defrag streikt trotzdem.
So schleppt sich das Dateisystem weiter über die Zeit.

Gast
2009-01-28, 12:58:17
Es bleibt zumindest festzuhalten, das der Effekt nicht mehr so stark spürbar ist wie damals, die Datenraten und Zugriffszeiten haben sich mit den Jahren auch verbessert.

vor allem ist fragmentierung nicht gleich fragmentierung. du kannst auch 80% fragmentierung haben und trotzdem kaum leistungseinbußen haben, wenn die einzelnen fragmente nicht zu klein werden.

marci
2009-01-28, 21:59:18
Wer sagt denn, daß bei z.B. 25% Fragmentierung auch 25% des Inhaltes der HDD Fragmentiert sind?

Bei O&O Defrag wird der Prozentsatz durch die Dateien errechnet, sind 25% aller auf der HDD vorhandenen Dateien Fragmentiert sind es halt 25%, auch wenn die 25% Dateien nur ca. 10% HDD Inhalt ausmachen von der Größe her (jaja, die schönen % angaben immer).

Das soll nur deutlich machen, daß dieses ganze bei so und soviel % soll man formatieren ist einfach Schwachsinn. Es wird erst Defragmentiert, wenn das OS oder gegebenfalls die Anwendung langsamer wird, ansonsten ist Defragmentieren eh Blödsinn.

Rooter
2009-01-28, 22:51:14
Wer sagt denn, daß bei z.B. 25% Fragmentierung auch 25% des Inhaltes der HDD Fragmentiert sind?Beim Windows Defrag ist es so (Vista weis ich nicht).

Es wird erst Defragmentiert, wenn das OS oder gegebenfalls die Anwendung langsamer wird, ansonsten ist Defragmentieren eh Blödsinn.Aber wie ein Gast oben schon schrieb ist das ein schleichender Prozess, das bekommst du u.U. gar nicht mit.

MfG
Rooter

Warhammer Online
2009-01-28, 23:15:56
Ich defragmentiere auch nur noch sehr selten..wenn überhaubt.
Neuerings aber arbeitet bzw. überwacht bei mi O&O Defrag das ganze selber im Hintergrund.

Ich selber aber halte es zur heutigen Zeiten eher unwichtig (evtl. einmal im Jahr).
Wenn ich mal Defragmentiere dann eig. nur damit das Rödeln aufhört^^

Gast
2009-01-28, 23:42:58
Das soll nur deutlich machen, daß dieses ganze bei so und soviel % soll man formatieren ist einfach Schwachsinn.Find ich auch. Formatieren wegen der Fragmentierung ist idiotisch.

Es wird erst Defragmentiert, wenn das OS oder gegebenfalls die Anwendung langsamer wird, ansonsten ist Defragmentieren eh Blödsinn.Schön für dich. Trotzdem sollte man einen Thread schon lesen bevor man seine inflationären 5 Cent dazugibt.

Gast
2009-01-28, 23:44:05
Ich selber aber halte es zur heutigen Zeiten eher unwichtig (evtl. einmal im Jahr).
Wenn ich mal Defragmentiere dann eig. nur damit das Rödeln aufhört^^Noch so ein Held. Das Rödeln wirkt sich also überhaupt nicht auf die allgemeine Leistung des Systems?

Gast
2009-01-29, 16:32:58
Wer sagt denn, daß bei z.B. 25% Fragmentierung auch 25% des Inhaltes der HDD Fragmentiert sind?

Bei O&O Defrag wird der Prozentsatz durch die Dateien errechnet, sind 25% aller auf der HDD vorhandenen Dateien Fragmentiert sind es halt 25%, auch wenn die 25% Dateien nur ca. 10% HDD Inhalt ausmachen von der Größe her (jaja, die schönen % angaben immer).

dieser wert ist genauso sinnlos, wenn nicht sogar noch sinnloser.

wenn 90% deiner dateien jeweils genau 2 fragmente haben wird dir die defragmentierung rein garnichts bringen.


sinnvoll wäre höchstens die durchschnittliche fragmentgröße der fragmentierten dateien anzuzeigen.

Saro
2009-01-29, 18:23:22
Mein Beitrag bezog sich auf normale Nutzung, 300 Büro-Rechner (teilweise 6-7 Jahre alt) und ich hatte noch keinen über 60%, selbst das viel genutzte Notebook meiner Lebengefährtin war nach 4 Jahren "erst" kurz vor 60%.

Evtl. täuscht einfach die Erinnerung, aber FAT32 fragmentierte deutlich stärker (meiner Erinnerung nach), da war man schon nach 3-4 Monaten bei 60%.

Na ich nutze meinen Rechner als Server, Web-Server, Datenbank-Server, Compiler usw. usw.

Ich hab auch nur ne normale Spieler-PC Nutzung (genau genommen größtenteils MMORPGs) Spiel installieren, deinstallieren, demo installieren, demo deinstallieren usw. In der Regel habe ich nach ca. 2 Monaten so um die 20.000 - 30.000 Fragmentierte Dateien auf der Festplatte.

Ob man das nun unbedingt alle X Monate usw. tun sollte überlass ich anderen ich tu es einfach zwischendurch mal und fertig, aber ganz auslassen würde ich es nicht.

Gast
2009-01-29, 18:35:21
Ich nutze JkDefrag64 (dank Tipp von Coda!) und denke das bringt schon was. Immer wenn ich das durchführe müssen Dateien verschoben werden

sloth9
2009-01-31, 20:54:10
Ich nutze JkDefrag64 (dank Tipp von Coda!) und denke das bringt schon was. Immer wenn ich das durchführe müssen Dateien verschoben werden

Müll. Wähle Laufwerk c: aus und es bearbeitet e:.
Gesehen, gelacht gelöscht.

Lokadamus
2009-01-31, 21:15:21
Mit der Zeit verliert die Defragmentierung immer mehr an Bedeutung, denn bei SSD Platten ist eine zu häufige Defragmentierung schlecht für die Lebensdauer. Außerdem ist dort die so wichtige Zugriffszeit sowieso viel kürzer als bei den heutigen HDDs.mmm...

Wie ich oben schon geschrieben habe, haben SSDs meines Wissens nach keine Leseköpfe mehr, wodurch das Problem mit der Fragmentierung sich eh erledigt hat.
Der Lesekopf muss teilweise von der einen Seite der HDD auf die andere und wieder zurückspringen, um die Datei zu lesen. Das ist es, was Zeit kostet und wodurch die Performence zurückgeht.
SSDs basieren auf Flash und haben damit sowas wie Leseköpfe und andere mechanische Sachen nicht mehr ;).Beim Windows Defrag ist es so (Vista weis ich nicht).Der Prozentangabe beim Windows- Defragger würde ich nur bedingt trauen.
Vor kurzem hatte ich einen Notebookuser, der sich darüber beklagt hatte, das sein System merkbar langsamer wurde. Ich hatte ihn daraufhin gebeten, die Defragmentierung zu machen, wo er gekontert hat, dass das Programm sagt, es tue nicht Not. Ich hab ihn trotzdem gebeten es am Wochenende laufen zu lassen. Die Rückmeldung war, dass das NB wieder gut läuft.Evtl. täuscht einfach die Erinnerung, aber FAT32 fragmentierte deutlich stärker (meiner Erinnerung nach), da war man schon nach 3-4 Monaten bei 60%.Stärker ja, aber gut ist NTFS definitiv auch nicht ;).

Rooter
2009-01-31, 21:41:23
Immer wenn ich das durchführe müssen Dateien verschoben werdenNatürlich, auf deiner Platte ändert sich ja alle paar Sekunden was (auf der Systempartition zumindest).

Wie ich oben schon geschrieben habe, haben SSDs meines Wissens nach keine Leseköpfe mehr, wodurch das Problem mit der Fragmentierung sich eh erledigt hat.In der Praxis dürfte es sich erledigt haben. Ich gehe mal davon aus das es dem eingebauten Controller "lieber ist" wenn er Daten am Stück lesen kann. Stichwort Blockgrösse u.Ä. Aber das dürfte, wenn überhaupt, nur messbar sein, das sich da defragmentieren lohnt kann ich mir nicht vorstellen, zumal es ja auf die Lebensdauer geht.

MfG
Rooter

LordDeath
2009-01-31, 21:49:17
Naja, SSDs können durch zuviel Fragmentierung auch an Leistung verlieren. Schreibvorgänge haben wohl deutlich höhere Zugriffszeiten, als die Lesevorgänge.

Lokadamus
2009-01-31, 22:32:28
Naja, SSDs können durch zuviel Fragmentierung auch an Leistung verlieren. Schreibvorgänge haben wohl deutlich höhere Zugriffszeiten, als die Lesevorgänge.mmm...

Weiß ich nicht, ich weiß nur, dass SSDs zur Zeit relativ langsam sind beim Schreiben, aber beim Lesen schon gute/ sehr gute Werte erreichen. Das dürfte aber noch nicht mit der Fragmentierung zusammenhängen. Ich tippe da eher auf ein Problem beim Setzen des Wertes an der Stelle, das Umschalten bzw. aktzeptieren des neuen Wertes dürfte eher das Problem sein.
Vielleicht sollte man wie bei Rams einen kleinen Kondensator davorschalten, damit dieser den zu setzenden Wert hat und nur noch sicherstellen muss, dass die Zelle den Wert auch übernimmt.

Ob da Fragmentieren bei SSDs wirklich noch Sinn macht, bezweifel ich. Das muss die Zukunft zeigen.

Gast
2009-01-31, 23:03:05
Naja, SSDs können durch zuviel Fragmentierung auch an Leistung verlieren. Schreibvorgänge haben wohl deutlich höhere Zugriffszeiten, als die Lesevorgänge.

bei SSDs weiß sowieso keine software wo die daten real liegen, da der controller die daten auf irgendwelche andere positionen mappt, eine defragmentierung kann wenn dann nur der controller selbst durchführen.

DanMan
2009-01-31, 23:57:29
Wir halten fest: Defrag. macht dann am meisten Sinn, wenn man viele Dateien gespeichert, und v.a. gelöscht hat.

Vor und/oder nach größeren Speicher- und Löschaktionen sollte man also auch mal defragmentieren ins Auge fassen.

Eggcake
2009-02-01, 01:03:31
Noch so ein Held. Das Rödeln wirkt sich also überhaupt nicht auf die allgemeine Leistung des Systems?

Hat er das gesagt?

Es ist nunmal Fakt (egal ob du's wahrhaben willst), dass heutzutage ein defrag leistungsmässig weniger ausmacht als vor einigen Jahren.

Es mag sein, dass es prozentmässig von der Leistung her unter umständen genau gleich viel bringt (wie sich nun das genau verändert hat weiss ich nicht und ist hier auch irrelevant).
Aber wenn dein PC schnell arbeitet, deine Dateien sowieso in wenigen Sekunden geöffnet werden, dann schert dich das nicht ob das jetzt 5% schneller geht.
Durch die Defragmentation öffne ich heutzutage ein File z.B. in 1.5 anstatt in 2 Sekunden. Vor 10 Jahren warens noch 15 anstatt 20 Sekunden.


Ich will hier nicht über Sinn oder Unsinn von Defragmentation diskutieren - ich selber defragmentiere auch mehr oder wengier regelmässig mit O&O - es geht aber darum, dass es für viele nicht mehr notwendig ist bzw. sie die Leistungseinbussen kaum bemerken/vernachlässigbar sind.

centurio81
2009-02-01, 10:12:10
Ich lasse Windows im Hintergrund defragmentieren..
Bewusst mache ich das schon lange nicht mehr..

Neon3D
2009-02-02, 10:32:40
Ich lasse Windows im Hintergrund defragmentieren..
Bewusst mache ich das schon lange nicht mehr..

geht mir genauso. habe das letzte mal vor 1 jahr selber mit mehereren externen softwares defraged. keine boot-zeit verbesserungen und bei manchen progs kam es zu systemabstürzen.

Coda
2009-02-03, 18:15:26
Müll. Wähle Laufwerk c: aus und es bearbeitet e:.
Gesehen, gelacht gelöscht.
Ich lache höchstens über deinen Beitrag.

Es gibt nämlich überhaupt keine GUI die bei JKDefrag dabei ist, sondern nur externe von anderen Entwicklern. Wenn diese einen Bug haben, dann ist sicher nicht JKDefrag daran schuld. Die Kommandozeilenoptionen sind absolut zuverlässig.

Die Engine selber ist allem was es sonst gibt auf dem Markt überlegen. Punkt. Ich habe lange genug getestet. Es gibt derzeit sonst nichts was Blockbereiche anstatt einzelner Blöcke bearbeitet und zudem noch die Dateien sinnvoll auf der Platte anordnet.

JKDefrag erledigt die Defragmentierung von Platten in gefühlt ~10% der Zeit was kommerzielle Tools so abgeliefert haben und das mit besserem Ergebnis.

sloth9
2009-03-28, 06:07:26
Ich lache höchstens über deinen Beitrag.

...



Sorry, aber ohne GUI geht gar nix; Lebenszeit ist begrenzt.

PatkIllA
2009-03-28, 07:42:08
Sorry, aber ohne GUI geht gar nix; Lebenszeit ist begrenzt.
eintippen dauert auch nicht unbedingt länger.
Was aber mal gar nicht geht, ist das ohne Parameter alle Laufwerke defragmentiert werden. Wie kann man das abbrechen?

No.3
2009-03-28, 08:31:38
JKDefrag erledigt die Defragmentierung von Platten in gefühlt ~10% der Zeit was kommerzielle Tools so abgeliefert haben und das mit besserem Ergebnis.

thx für den Tipp, werde ich mir mal ansehen


Sorry, aber ohne GUI geht gar nix; Lebenszeit ist begrenzt.

da ist wohl einer mit Windows "gross" geworden ;)


Edit: welche GUI hast Du denn verwendet (gibt da ja ziemlich viele) ?


Was aber mal gar nicht geht, ist das ohne Parameter alle Laufwerke defragmentiert werden. Wie kann man das abbrechen?

ui, unschön :(

Gast
2009-03-28, 13:07:03
Hat er das gesagt?

Es ist nunmal Fakt (egal ob du's wahrhaben willst), dass heutzutage ein defrag leistungsmässig weniger ausmacht als vor einigen Jahren.Ja superklasse. Früher hat es 60% ausgemacht und heute nur 40%? Wenn etwas Fakt ist denn stelle es auch als Fakt dar und stelle nicht irgendwelche fantastischen Thesen auf ohne sich die Mühe zu machen sie zu untermauern oder wenigstens zu begründen.
Es ist nunmal Fakt daß sich in den foren unzählige Schaumschläger rumtreiben. Ist dir das bekannt?

Aber wenn dein PC schnell arbeitet, deine Dateien sowieso in wenigen Sekunden geöffnet werden, dann schert dich das nicht ob das jetzt 5% schneller geht.
Durch die Defragmentation öffne ich heutzutage ein File z.B. in 1.5 anstatt in 2 Sekunden. Vor 10 Jahren warens noch 15 anstatt 20 Sekunden.Klasse Zahlen. s.o.

HeldImZelt
2009-03-28, 17:27:53
Die Engine selber ist allem was es sonst gibt auf dem Markt überlegen. Punkt. Ich habe lange genug getestet. Es gibt derzeit sonst nichts was Blockbereiche anstatt einzelner Blöcke bearbeitet und zudem noch die Dateien sinnvoll auf der Platte anordnet.
Das Programm kann doch nicht mal die Layout.ini verarbeiten. Welche Uberstrategien soll es denn haben?

Ich bezeichne Ultimate Defrag als besten Strategen. Neben normalen Konsolidierungs-, Name- und LastAccess Strategien (plus Einteilung in 3 Bereiche sowie White- und Blackliste), Layout.ini, MFT, Ordnerpositionierung und Defragmentieren einzelner Dateien und Ordner, ist das der einzige Defragger, der auch auf die 'BootOptimizeFunction' hinweist, die ein striktes Layout schnell wieder zunichte macht. Man kann auch zugunsten der Geschwindigkeit auf tolerante Layouts setzen (non-strict file placements).

Sicherlich auch nicht der Weisheit letzter Schluss, aber rotzt meiner Meinung nach alles weg, was derzeit auf dem Markt ist. Kostet halt was und hat keinen Offline Modus.

Das Anordnen nach Layout.ini halte ich für bedeutend und sinnvoll. Ich benutze es hauptsächlich für Laptop HDDs, die ich extern defragmentiere, danach auf DVD speichere (3GB) und bei Bedarf sektor-basiert wieder herstellen kann.

Gerade die kleinen Notebook HDDs mit relativ schlechten Zugriffszeiten zeigen sich bei sequentiellen Zugriffen erkenntlich.

Eggcake
2009-03-28, 17:45:40
Ja superklasse. Früher hat es 60% ausgemacht und heute nur 40%? Wenn etwas Fakt ist denn stelle es auch als Fakt dar und stelle nicht irgendwelche fantastischen Thesen auf ohne sich die Mühe zu machen sie zu untermauern oder wenigstens zu begründen.
Es ist nunmal Fakt daß sich in den foren unzählige Schaumschläger rumtreiben. Ist dir das bekannt?

Klasse Zahlen. s.o.

Lass Hirn regnen :(

Gast
2009-03-28, 18:24:12
Lass Hirn regnen :(Jep. Auf nen Eggkopf.

Gast
2009-03-28, 18:26:52
Sicherlich auch nicht der Weisheit letzter Schluss, aber rotzt meiner Meinung nach alles weg, was derzeit auf dem Markt ist. Kostet halt was und hat keinen Offline Modus.Was kostet es denn?
http://www.chip.de/downloads/UltimateDefrag_32514780.html

HeldImZelt
2009-03-28, 19:47:14
$39.95
http://www.disktrix.com

sloth9
2009-05-08, 11:33:06
thx für den Tipp, werde ich mir mal ansehen




da ist wohl einer mit Windows "gross" geworden ;)


Edit: welche GUI hast Du denn verwendet (gibt da ja ziemlich viele) ?




ui, unschön :(

Nö, C64, Atari...

Welche GUI ist denn empfehlenswert?
JkDefragGUI 1.16 funzt nicht richtig.
Die auf der jkdefrag-Seite empfohlen finde ich ausnahmslos richtig Scheiße.
Werden nur noch von den unsäglichen lame-GUIs übertroffen.

ROXY
2009-05-08, 18:21:52
namensdefragmentiereung bringt schon erheblich etwas.
also gerade nach einer neu-installation sind das gute 25%-50% an gefühlter festplatten-programmbezogener mehrleistung.

es kommt auf die defragmentierungsmethode an - gibt ja unterschiedliche mit unterschiedlichen eigenschaften.
name/stealth/access usw. usw.

Ostfried
2010-08-22, 22:40:38
Will den Uraltfred doch mal ausgraben, wird ja immer mal wieder diskutiert:

WinXP, Platte mit insgesamt 5 Partitionen die letzten 3 Jahre immer so alle 3-7 Tage per XP-Standard defragmentiert. Antivir brauchte für n Durchlauf das letzte Mal 1 Stunde, 4 Minuten.

Gestern erstmals O&O installiert, alle Partitionen (system, Games, Daten usw) mit complete/name defragt. O&O deinstalliert, ergo exakt identische Datenmenge wiederhergestellt.
Antivir braucht nur noch 54 Minuten...

Fand ich schon nicht schlecht fürn reines Umpacken.

LG
Ostfried

SuperHoschi
2010-08-23, 02:24:01
Ich hab mal "heimlich" bei uns in der Firma die Rechner defragmentiert, also nach Dienstschluss.
Und da waren Kisten dabei mit über 60% Fragmentierung.

Soll ich euch was sagen, keiner, NIEMAND, hat einen Unterschied zu vorher bemerkt.
Mein Lehre aus der Sache: Perlen wirf man nicht vor die Säue.

LordDeath
2010-08-23, 03:06:43
Also wir sind uns doch einig, dass folgende Aussage der Wahrheit entspricht: Die Fragmentierung von Dateien kostet Leistung, weil die Zugriffszeiten der HDDs so langsam sind und dadurch die Lese- und Schreibgeschwindigkeiten einbrechen.

Dies wird bei traditionellen Festplatten besonders deutlich, wenn mehrere größere Anwendungen (Office, Browser und andere alltägliche Programme) gleichzeitig gestartet werden und vorher noch keine Caches im RAM gefüllt wurden (z.B. wenn das OS soeben erst hochgefahren ist). Dagegen ist so etwas bei SSDs ohne größere Leistungseinbußen möglich, was ich aber eher deren viel niedrigeren Zugriffszeiten als deren höheren sequentiellen Lese- und Schreibraten zuschreibe.

Wenn jetzt die HDDs durch eine Defragmentierung nicht großartig an Performance zu gewinnen können, dann müssen diese ständigen langsamen Zugriffszeiten ja trotzdem noch irgendwo auftreten. Und hier vermute ich, dass einfach unsere heutigen Anwendungsszenarien (Multitasking etc.) so viele unterschiedliche Zugriffe auf den Festplatten erzeugen, so dass diese Schwäche der HDDs schon viel eher zu tragen kommt und hier die einzelnen Dateifragmente noch überhaupt gar keine Rolle spielen.

Daher glaube ich, dass die Dateifragmente auf den zu 60% fragmentierten Festplatten bei SuperHoschis Büro-PCs immer noch zu groß waren, als dass sie noch mehr zusätzliche Zugriffszeiten verursachen könnten. Die heutigen Programme und die Art, wie wir sie nutzen, sorgen schon eher dafür, dass die Lese- und Schreibköpfe sich neu ausrichten müssen, bevor sie überhaupt an das Ende des aktuellen Fragmentes gelangen.

Darum ist auch diese übliche Angabe der Defragmentierungsprogramme so ziemlich nutzlos: Wenn von 100GiB ganze 60GiB gleichmäßig in 10MiB Fragmente aufgeteilt sind, sind zwar 60% der Daten fragmentiert aber die Leistungseinbußen sind subjektiv mit hoher Wahrscheinlichkeit überhaupt nicht bemerkbar. Aber wenn von diesen 100GiB nur 2% in jeweils gleich große 20KiB Teile fragmentiert sind, wäre die I/O-Leistung bei diesen Daten wohl wieder zurück in der IT-Steinzeit.

lumines
2010-08-23, 03:16:18
Mich würde sowieso mal interessieren, warum MS dagegen nicht etwas unternimmt. Ext4 (auch 3) und co. fragmentieren nicht annähernd so stark wie NTFS und sind auch sonst gefühlt deutlich performanter. Die Fragmentierung ist in der Praxis einfach nicht spürbar. Anscheinend bastelt MS ja aber lieber an den internen Defragmentierungsroutinen herum, anstatt das Problem mal an der Wurzel zu bekämpfen. Hat das irgendeinen Grund? Will man NTFS vielleicht möglichst kompatibel halten? Anders kann ich mir das einfach nicht erklären.

LordDeath
2010-08-23, 03:21:47
Ich wüsste jetzt nicht, ob man die NTFS Implementierungen außerhalb der Microsoft-Betriebssysteme wirklich nutzen kann, um einen fairen Vergleichen zwischen Ext4 und NTFS im Bezug auf die Performance anstellen zu können.

Aber NTFS gibt es wirklich schon ziemlich lange. Ich könnte mir gut vorstellen, dass es Ext4 den anderen jüngeren Dateisystemen technisch unterlegen ist.

edit: Eigentlich finde ich die Performance erstmal zweitrangig. ZFS und Btrfs haben da viele andere tolle Features, die man schon vorgestern gerne gehabt hätte. MS sitzt da im Bezug auf den DriveExtender v2 vom WHS Vail auch nicht still rum.

(del)
2010-08-23, 03:32:43
@Lumines
Weißt du was es heißt ein miliardenfach geprüftes und gefixtes Dateisystem zu haben? =) Vor allem was MS angeht? :ulol: sie werden das Dateisystem an allerletzten Stelle anfassen. Eher bauen sie nur ein "Aufsatz" wie WinFS oder sowas.

Und ich finde das auch ziemlich ok (daß sie da nicht Neuzeug ranfuschen) Es gibt keine Komponente an Windows welcher ich so vertraue wie NTFS.

LordDeath
2010-08-23, 03:38:42
Und es gibt keine Komponente von Linux der ich so sehr misstraue wie NTFS. :D

(del)
2010-08-23, 04:11:35
Ich kann in dem Beitrag von Lumines erstmal nicht so klar erkennen, daß er irgendwie NTFS-3G und Ext4 direkt vergliechen hat ;)

@SuperHoschi
Sowas wird "auf der Arbeit" meistens von der domänenbasierten Arbeitsweise der Rechner aufgefressen ;)

SuperHoschi
2010-08-23, 12:46:52
@BessereHälfte

Das ist ja der Gag an der Sache das waren unsere alten Kisten.
Nix Server, nix Domain, stink normale Mediamarkt WinXP Hausfrauenrechner.
Wurden noch nie defragmentiert oder sonst wie gepflegt bevor ich kahm.

Rooter
2010-08-24, 00:22:16
Will den Uraltfred doch mal ausgraben, wird ja immer mal wieder diskutiert:

WinXP, Platte mit insgesamt 5 Partitionen die letzten 3 Jahre immer so alle 3-7 Tage per XP-Standard defragmentiert. Antivir brauchte für n Durchlauf das letzte Mal 1 Stunde, 4 Minuten.

Gestern erstmals O&O installiert, alle Partitionen (system, Games, Daten usw) mit complete/name defragt. O&O deinstalliert, ergo exakt identische Datenmenge wiederhergestellt.
Antivir braucht nur noch 54 Minuten...

Fand ich schon nicht schlecht fürn reines Umpacken.

LG
OstfriedIn dem Fall ist das klar weil ein Virenscan schlicht die Verzeichnisse durchgeht, vermutlich alphabetisch... ;)

Mich würde sowieso mal interessieren, warum MS dagegen nicht etwas unternimmt. Ext4 (auch 3) und co. fragmentieren nicht annähernd so stark wie NTFS und sind auch sonst gefühlt deutlich performanter. Die Fragmentierung ist in der Praxis einfach nicht spürbar. Anscheinend bastelt MS ja aber lieber an den internen Defragmentierungsroutinen herum, anstatt das Problem mal an der Wurzel zu bekämpfen. Hat das irgendeinen Grund? Will man NTFS vielleicht möglichst kompatibel halten? Anders kann ich mir das einfach nicht erklären.Es würde an der Kompatibilität nichts ändern wenn man beim suchen freier Stellen für neue Daten etwas mehr Intelligenz einbaut.

MfG
Rooter