PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Aktive Festplattencontroller?


=Floi=
2011-04-24, 12:53:45
Hallo
wenn ich die tollen SSDs sehe frage ich mich schon, warum in den herkömmlichen festplatten keine aktiven controller verbaut sind, welche ihre daten selbst defragmentieren und so gegen performanceeinbrüche entgegenwirken und längerfistig auch das laufwerk schonen würden.
bei herkömmlichen festplatten dürfte der aufwand auch noch um ein vielfaches geringer sein und was spricht gegen eine solche technik? :rolleyes:

Don-Roland
2011-04-24, 13:05:16
Eine Mischform zwischen SSDs und herkömmlichen Festplatten gab es bereits.

RavenTS
2011-04-24, 13:43:19
Eine Mischform zwischen SSDs und herkömmlichen Festplatten gab es bereits.

Du meinst die Seagate MomentusXT-Reihe?

Generell: Kosten! Bei Festplatten wird doch jeder Cent gespart, gerade beim Defragmentieren ist doch auch kaum ein Nutzen erkennbar...

Tesseract
2011-04-24, 13:58:44
Hallo
wenn ich die tollen SSDs sehe frage ich mich schon, warum in den herkömmlichen festplatten keine aktiven controller verbaut sind, welche ihre daten selbst defragmentieren und so gegen performanceeinbrüche entgegenwirken und längerfistig auch das laufwerk schonen würden.

weil die fragmentierung eine sache es dateisystems ist und die platte da nix machen kann. es gibt auch dateisysteme, die bis zu einer gewissen befüllung (~80%) de facto von sich aus nicht fragmentieren.
wear leveling von SSDs findet auf einer abstraktionsebene tiefer statt und ändert nix an der position der daten im addressraum.

Spasstiger
2011-04-24, 13:58:52
Defragmentierung ist Sache des Dateisystems. Woher soll die HDD, die einfach nur physikalisch speichert, wissen, welche Blöcke logisch zusammengehören?

=Floi=
2011-04-24, 14:57:10
indem man auch einfach einen befehl einbaut wie bei trim.

Wildfoot
2011-04-24, 15:02:49
Hmm...

Aber....
Es gibt doch nun auch neue HDD's (2.5" von Toshiba), welche auf der Hardware-Ebene eine (glaubs 256Bit) AES Verschlüsselung durchführt und allenfalls bei Bedarf auch automatisch den Schlüssel löschen kann (zum Schutz bei Angriffen). Diese Platten müssen doch auch wissen, welche Sektoren logisch zusammen gehören, oder?

Also sollte eigentlich auch eine Art Wear Leveling bei konventionellen HDD's möglich sein?

Gruss Wildfoot

sloth9
2011-04-24, 15:08:11
Eine Festplatte kennt keine Dateisysteme. Also geht's nicht.
Verschlüsselung funktioniert blockweise, hier Sektoren (kleinste Einheit). Transparent für's Dateisystem, also funzt's.

Tesseract
2011-04-24, 15:17:23
indem man auch einfach einen befehl einbaut wie bei trim.
was soll dieser befehl machen? die platte hat einen speicherraum, in den das OS irgendein beliebiges dateisystem reinschreibt, das kann NTFS, FAT, EXT4, btrfs, ZFS, ein raid-stripe oder sonst irgendwas sein.

TRIM hat nichts mit dem dateisystem zutun. das sagt der platte auf blockebene ob der block noch gebraucht wird oder nicht, eben WEIL die platte nicht weiß was das dateisystem damit macht. bei klassischen platten war das egal weil der nicht mehr gebrauchte block vom dateisystem irgendwann überschrieben wird. eine SSD braucht diese freien blöcke aber für das wear leveling, daher ist es sinnvoll diese zu kennzeichnen.

Wildfoot
2011-04-24, 15:20:28
Ja gut, wenn das natürlich nur Sektorweise verschlüsselt wird....

Gruss Wildfoot

=Floi=
2011-04-25, 17:25:15
dann müsste man es eben so regeln, dass die festplatte über das OS das dateisystem auslesen aknn und dann einzelne datein intern verschieben kann wie es das laufwerk mag. der vorteil in einer dauerhaft unfragmentierten festplatte liegt ja auf der hand. der controller ist ja auch schon eingebaut und müsste nur mit mehr "logik" erweitert werden.

PatkIllA
2011-04-25, 17:32:23
dann müsste man es eben so regeln, dass die festplatte über das OS das dateisystem auslesen aknn und dann einzelne datein intern verschieben kann wie es das laufwerk mag. der vorteil in einer dauerhaft unfragmentierten festplatte liegt ja auf der hand. der controller ist ja auch schon eingebaut und müsste nur mit mehr "logik" erweitert werden.
Das hat aber keinen praktischen vorteil gegenüber dem defragmentieren über das OS.

Tesseract
2011-04-25, 17:57:05
Das hat aber keinen praktischen vorteil gegenüber dem defragmentieren über das OS.

erstens das und zweitens könnte man gleich dateisysteme verwenden, die nicht so leicht oder garnicht fragmentieren. das ist wieder mal eines dieser home-made-probleme von microsoft.
andere systeme hashen z.B. daten über die platte und zeigen daher erst ab einer hohen füllrate weit über 3/4 offensichtliche fragmentierung wärend sie auf den nachteil des resourcenfressenden live-rebalancings (also dem effektiven verhindern von fragmentierung zum zeitpunkt der beschreibung) verzichten, vereinen also die vorteile beider "welten".

Coda
2011-04-25, 17:58:24
NTFS fragmentiert nicht mehr oder weniger als andere B-Tree-Filesysteme wie ZFS oder btrfs. Kleine Dateien werden von NTFS außerdem direkt in der MFT abgelegt falls möglich, womit zusätzlich Fragmentierung vermieden wird.

Ich halte es auch für eine urban legend, dass Ext da besser ist - es gibt schlicht keine Defragmentierungswerkzeuge, weshalb das Argument immer herhalten muss.

Fragmentierung ausschließen kann man prinzipbedingt sowieso nicht. Das einzige was man tun kann ist das erwähnte verwenden von Speicherplatz in fix allozierten Bereichen für kleine Dateien und eine "intelligente" Auswahl des Bereichs für neue Blöcke.

=Floi=
2011-04-25, 18:06:19
also ich finde NTFS und 200-500gb systemplatten als echten graus. auch wenn unter 30% des laufwerks belegt sind, fragmentiert das system schon brutal über einen längeren zeitraum. gerade browser wie opera schreiben ja die ganze zeit immer kleine dateien auf das laufwerk und sähnen sozusagen die böse saat der fragmentierung über das ganze laufwerk. ;)
ist es mit win 7 besser geworden?

gerade beim anderen system rödelt die platte auch nach dem defragmentieren noch brutalst, wie wenn das defragmentieren keinen vorteil gebracht hätte. :rolleyes:

Coda
2011-04-25, 18:11:44
Wenn es da ein Problem gibt, dann in der Software. Nicht an der logischen Struktur des Dateisystems und schon gar nicht an der Hardware. Du klopfst an die falsche Tür.

gerade beim anderen system rödelt die platte auch nach dem fragmentieren noch brutalst, wie wenn das fragmentieren keinen vorteil gebracht hätte. :rolleyes:
Ja, wenn ich was fragmentiere dann rödelt bei mir die Platte auch :facepalm:

Tesseract
2011-04-25, 18:14:17
Ich halte es auch für eine urban legend, dass Ext da besser ist - es gibt schlicht keine Defragmentierungswerkzeuge, weshalb das Argument immer herhalten muss.
also meiner erfahrung nach ist ext bis über 90% auslastung hinaus überaus stabil. richtig schlimm wird es dann ab ~95%, da bricht es dann total ein.

Spike2
2011-04-25, 19:14:18
Die Lösung für Browser, um Fragmentierung zu vermeiden, wäre doch dann eigentlich ein fest vorbelegter Platz in Form einer Datei fester Größe, also ähnlich des Windows Swap-Files, oder?

PatkIllA
2011-04-25, 19:17:10
Die Lösung für Browser, um Fragmentierung zu vermeiden, wäre doch dann eigentlich ein fest vorbelegter Platz in Form einer Datei fester Größe, also ähnlich des Windows Swap-Files, oder?
Dann hat der Browser aber ähnliche Probleme mit Fragmentierung innerhalb dieser Datei.

Coda
2011-04-25, 19:31:02
Man hätte sogar zwei Ebenen von möglicher Fragmentierung ;)

Spasstiger
2011-04-25, 19:48:14
Man hätte sogar zwei Ebenen von möglicher Fragmentierung ;)
Siehe z.B. die Defrag-Funktion von Steam, die lediglich die interne Struktur der GCF-Dateien optimiert.

Spike2
2011-04-25, 21:29:10
Man hätte sogar zwei Ebenen von möglicher Fragmentierung ;)
Im Prinzip schon, aber ich dachte auch eher an eine "Browser-Auslagerungsdatei", die unfragmentiert geschrieben und dann "gesperrt" wird - halt genau wie das Windows-Swapfile. Wenn die Datei dann innerlich fragmentiert ist's Wurst, da es dann nur den Browser betrifft und der hätte ohne dieses System ja auch mit der Fragmentierung zu tun gehabt. Allerdings - und das wäre der Benefit - muß das restliche Dateisystem nicht unter dem Browser leiden.
Denkbar oder Denkfehler meinerseits ?


Viele Grüße,

Spike2

PatkIllA
2011-04-25, 21:42:51
Die Auslagerungsdatei kann auch fragmentieren. Und wieso würde das restliche System weniger leiden?

Avalox
2011-04-26, 10:18:39
also meiner erfahrung nach ist ext bis über 90% auslastung hinaus überaus stabil. richtig schlimm wird es dann ab ~95%, da bricht es dann total ein.

Ich denke ext3 wird über das System sortiert. Dazu ist allerdings etwas freier Platz nötig. Ich denke mal gelesen zu haben, dass 10% Platz sein sollten.

Coda
2011-04-26, 11:59:05
Ich denke ext3 wird über das System sortiert.
????

Lokadamus - nixBock
2011-04-26, 12:06:04
bei herkömmlichen festplatten dürfte der aufwand auch noch um ein vielfaches geringer sein und was spricht gegen eine solche technik? :rolleyes:mmm...

1.) SSDs sollten keine Defragmentierung mehr benötigen,da hier keine mechanischen Bauteile mehr vorhanden sind und hier kein Geschwindigkeitszuwachs vorhanden sein dürfte.
Tests dazu kenne ich allerdings nicht.
2.) Weil es mehr FS als NTFS und Fat gibt.
3.) http://www.heise.de/newsticker/meldung/Steganografie-durch-gezielte-Festplatten-Fragmentierung-1231920.htmlIch denke ext3 wird über das System sortiert.Wenn ich mich richtig erinnere, werden die Daten nur soweit vorsortiert, dass sie möglichst linear geschrieben werden.
Das gleiche passiert bei HDDs in Form von Sata2 und Command Queue. Allerdings nützt dir sowas nichts, sobald Dateien gelöscht werden, weil dann die Lücken entstehen, die nicht immer sinnvoll gefüllt werden können.

Avalox
2011-04-26, 12:32:35
Allerdings nützt dir sowas nichts, sobald Dateien gelöscht werden, weil dann die Lücken entstehen, die nicht immer sinnvoll gefüllt werden können.

Hmm. Bin mir dabei nicht mal sicher, ob nicht dort ein Automatismus bei ext3 die Festplatte umsortiert. Die 10% Platz auf einer ext3 Partition kommen mM nach daher.
Mal abgesehen davon, dass ich einfach mal den Sinn einer um jeden Preis defragmentierten Festplatte absolut in Frage stelle.

Wenn ich jedenfalls mir mit filefrag mal ein paar verdächtige Dateien ansehe, kann ich keine Fragmentierung erkennen. Was aber vielleicht auch daran liegt, dass ich ext4 benutze und ich nicht weiß ob filefrag überhaupt bei ext4 noch ordentlich funktioniert.

Lokadamus - nixBock
2011-04-26, 14:49:40
Mal abgesehen davon, dass ich einfach mal den Sinn einer um jeden Preis defragmentierten Festplatte absolut in Frage stelle.mmm...

Um jeden Preis macht es keinen Sinn, aber wenn du unter Windows mal eine HDD hattest, wo die Tools irgendwas um 80% oder weniger angezeigt haben und danach die richtige Strategie gewählt wurde, reagiert zum Beispiel schon alleine der Windows Explorer beim Durchklicken der Ordner schneller.
Liegt einfach daran, dass er nicht mehr selber die Ordner sortieren muss, sondern beim defragmentieren sortiert wurden. Das setzt aber das richtige Tool und die richtige Einstellung vorraus ;).
Zugriff auf sortierte Dateien sind bei HDDs ruhiger, der Lese/ Schreibkopf muss nicht mehr quer über die ganze Scheibe hüpfen, sondern braucht nur minimale Bewegungen durchführen, um den nächsten Block mit Daten zu erreichen.
Der Effekt wird durch höhere Geschwindigkeit der HDDs ebenfalls gemindert. Die Daten kommen schon relativ schnell, da fällt es nachher nicht mehr auf, ob der Lesekopf viel bewegt werden musste oder an einer Stelle bleiben konnte.

Avalox
2011-04-26, 15:24:36
mmm...

Um jeden Preis macht es keinen Sinn, aber wenn du unter Windows mal eine HDD hattest, wo die Tools irgendwas um 80% oder weniger angezeigt haben und danach die richtige Strategie gewählt wurde, reagiert zum Beispiel schon alleine der Windows Explorer beim Durchklicken der Ordner schneller.
Liegt einfach daran, dass er nicht mehr selber die Ordner sortieren muss, sondern beim defragmentieren sortiert wurden. Das setzt aber das richtige Tool und die richtige Einstellung vorraus ;).
Zugriff auf sortierte Dateien sind bei HDDs ruhiger, der Lese/ Schreibkopf muss nicht mehr quer über die ganze Scheibe hüpfen, sondern braucht nur minimale Bewegungen durchführen, um den nächsten Block mit Daten zu erreichen.
Der Effekt wird durch höhere Geschwindigkeit der HDDs ebenfalls gemindert. Die Daten kommen schon relativ schnell, da fällt es nachher nicht mehr auf, ob der Lesekopf viel bewegt werden musste oder an einer Stelle bleiben konnte.

Das ist aber eine sehr vereinfachte Darstellung.

Erstmal liesst das System ja eh zwischendurch die Metainformationen, dann kommt hinzu, dass das lesen von Dateien zwischendurch immer wieder unterbrochen wird, um woanders auf der Festplatte zwischendurch andere Dateien anderer Prozesse zu lesen oder zu schreiben. Da bewegt sich der Kopf dann doch eben wieder hin und her.

Es gibt schnelle und langsame Bereiche auf der Festplatte, es gibt Dateien im System welche ständig die Größe ändern und andere Dateien welche zeitlebens gleichgroß bleiben. Es gibt Dateien welche immer nur in Verbindung mit anderern Dateien gelesen oder geschrieben werden und es gibt Dateien, welche exklusiv völlig allein vom System gelesen werden. Es gibt Dateien welche häufig benutzt werden und welche, die werden es nicht.

Um es mal mit einem alten Linux FAQ zu schreiben

"Moderne Dateisysteme sind grundsätzlich etwas fragmentiert, was auch seinen Sinn hat. Anders als zum Beispiel das alte FAT Dateisystem von DOS/Windows versuchen moderne Dateisysteme eine übermäßige Fragmentierung durch eine intelligente Organisation von Grundauf zu verhindern und setzen teilweise eine gezielte Fragmentierung ein um die Geschwindigkeit beim Anlegen und Vergrößern von bestehenden Dateien zu verbessern..

...

Wenn Du zu Windows gehst und Dateien speichern willst, sagt dir der Windows Festplattenchef: Fang einfach vorne bei der Festplatte an und nimm die ersten freien Sektoren. Wenn Dir was im Weg liegt, überspring es und mach an einer anderen Stelle weiter. Wenn Du dann sagst, daß das früher oder später im Chaos endet, so sagt der: Wir stellen jedes Wochenende ein paar Leute ein, die alles Aufräumen. Kunde bezahlt.

Wenn Du zu Linux gehst, fragt dich der Festplattenverwalter: Wie groß ist die Datei? Und dann sagt er Dir eine Stelle, wo die ganz hinpaßt, wenn es so eine gibt. Oder er zeigt dir die größtmöglichen Stücke falls es nicht in eines paßt."

http://www.pc-erfahrung.de/linux/linux-faq.html#defragmentieren

Birdman
2011-04-26, 16:13:44
Wenn Du zu Windows gehst und Dateien speichern willst, sagt dir der Windows Festplattenchef: Fang einfach vorne bei der Festplatte an und nimm die ersten freien Sektoren. Wenn Dir was im Weg liegt, überspring es und mach an einer anderen Stelle weiter. Wenn Du dann sagst, daß das früher oder später im Chaos endet, so sagt der: Wir stellen jedes Wochenende ein paar Leute ein, die alles Aufräumen. Kunde bezahlt.

Wenn Du zu Linux gehst, fragt dich der Festplattenverwalter: Wie groß ist die Datei? Und dann sagt er Dir eine Stelle, wo die ganz hinpaßt, wenn es so eine gibt. Oder er zeigt dir die größtmöglichen Stücke falls es nicht in eines paßt."

hehe, super diese Aussage - war wohl schon damals etwas outdated und im Goodwill von ext geschrieben weils gar keine DeFrag gab......als wüsste man bei allen Dateien zum vornherein wie gross diese sind, bzw werden.

IMHO macht aber bei einem älteren System und einem das öfters mal an der max. Diskkapazität lief, die fragmentierung der einzelnden Dateien sowieso weniger was aus, als der Umstand, dass von einem Programm dessen Dateien mitunter über die ganze Disk verteilt wurden. Bei einem Start von diesem Programm geht dann das lesen all dieser Daten sowieso schon über die ganze Disk und da spielt die eine oder andere fragmentierte Datei keine Rolle mehr.

Lokadamus - nixBock
2011-04-26, 16:23:55
1.) Das ist aber eine sehr vereinfachte Darstellung.

2.) Erstmal liesst das System ja eh zwischendurch die Metainformationen, dann kommt hinzu, dass das lesen von Dateien zwischendurch immer wieder unterbrochen wird, um woanders auf der Festplatte zwischendurch andere Dateien anderer Prozesse zu lesen oder zu schreiben. Da bewegt sich der Kopf dann doch eben wieder hin und her.

3.) Es gibt schnelle und langsame Bereiche auf der Festplatte, es gibt Dateien im System welche ständig die Größe ändern ...

4.) Um es mal mit einem alten Linux FAQ zu schreiben

"[I]Moderne Dateisysteme sind grundsätzlich etwas fragmentiert, was auch seinen Sinn hat. Anders als zum Beispiel das alte FAT Dateisystem ...mmm...

1.) Nein, eigentlich ist es genau das, was die HDD macht.

2.) Was hat die HDD mit den Metainformationen zu tun? Sie schreibt und gibt die Informationen wieder, aber sie verwaltet die Metainformationen nicht.
Und an der Stelle mit "Ich brauch mal ganz andere Dateien jetzt" interessiert die HDD hier auch nicht. Der Kopf hüpft 1x, ist an der Stelle, gibt die Daten und hüpft wieder zurück. Das sind 2 Sprünge. Das gleiche bei 2 Dateien mit jeweils 5 Fragmente sind ... hab gar keine Lust anzufangen, hier auszurechnen, wie viele Bewegungen hier entstehen könnten alleine schon, weil einige weitere Umdrehungen der Scheiben hinzu kommen, weil die Daten wieder vorbeigerauscht sind und weil das Zeitfenster vom Process beendet ist.
Die Anfrage nach verschiedenen Dateien kommt wieder vom OS, welches, wenn es gut ist, auch sowas wie ein Diskcache hat. Dadurch brauchen die Server von MS nicht "sofort" die Änderungen niederschreiben, sondern können verzögert die Informationen niederschreiben, wodurch weniger Schreibzugriffe entstehen. Wer einmal viele Dateien mit Cache und ohne Cache unter Dos gelöscht hat, weiß, was ich meine. Das gleiche kann man unter XP ebenfalls erreichen, wenn man den Wert anpasst (ist als Tuningtipp im Internet zu finden, der zwar keine Geschwindigkeitsvorteile bringt, aber ein besseres Verhalten, wenn die Kiste gerade ein Update oder so was installiert und dadurch etwas ruckelig wird).

3.) Was in jedem guten Defragtool auch berücksichtigt wird.

4.) Betonung liegt auf aaaaaalt. Das, was du da beschreibst, ist FAT und nicht NTFS. NTFS ist zwar auch nicht das gelbe vom Ei und braucht nach einiger Zeit eine Defragmentierung, aber es schreibt nicht beim nächtsbesten Sektor los.

Avalox
2011-04-26, 16:31:29
mmm...

2.) Was hat die HDD mit den Metainformationen zu tun? Sie schreibt und gibt die Informationen wieder, aber sie verwaltet die Metainformationen nicht.



Verwalten braucht die Platte diese auch nicht. Es reicht wenn sie diese behandeln muss, wie alle anderen Daten. Nämlich indem sie den Kopf von der defragmentierten Datei nimmt und diese zu den Metadaten des FS führt und zurück.

Es gibt ja auch nicht den "Sprung", solch eine neue Positionierung des Kopfes kann lange, oder weniger lange dauern. Je nachdem wo sich das Ziel befindet.

Ich wollte damit nur zum Ausdruck bringen, dass es weit mehr zu berücksichtigen gibt, als nur Dateien wie am Schnürchen zu ordnen.

Es gibt ja Dateisysteme welche tatsächlich gar nicht fragmentieren. Ob diese dann schnell sind ist eine ganz andere Frage.


4.) Betonung liegt auf aaaaaalt. Das, was du da beschreibst, ist FAT und nicht NTFS. NTFS ist zwar auch nicht das gelbe vom Ei und braucht nach einiger Zeit eine Defragmentierung, aber es schreibt nicht beim nächtsbesten Sektor los.

Na klar ist es alt. Es zeigt aber aus welcher Zeit die Idee mit "Ich starte mal ein Defrag Programm" stammt.

Ich würde auch bei einem aktuellen Windows mit NTFS nie auf die Idee kommen ein extra Defragprogramm von Hand zu starten.

Ich denke, dass der ganze Begriff "Defragmentierung" für den Umstand aus der DOS/Windowswelt stammt.

Coda
2011-04-27, 00:44:37
Es gibt ja Dateisysteme welche tatsächlich gar nicht fragmentieren.
Nö.

Trap
2011-04-27, 01:28:12
Nö.
Sicher? Es ist sehr einfach nicht fragmentierende Dateisysteme zu schreiben, einfach einen Fehlercode zurückgeben wenn die Datei nicht unfragmentiert passt...

Coda
2011-04-27, 01:38:16
Das ist doch absurd. Man kann Dateien Byteweise verlängern. Woher soll denn bitte das OS vorher wissen wo es für die unbekannte Größe Platz hat? X-D

Also mir ist sowas noch nicht untergekommen, und ich behaupte alle gängigen und weniger gängigen Dateisysteme zu kennen.

Wie gesagt, es wird evtl. bei den Linux-FS mehr darauf geachtet, dass die Algorithmen zur Bestimmung des nächstbesten freien Clusters intelligenter sind, aber in die Zukunft schauen kann man nicht. Und ich bin auch nach wie vor der Meinung, dass das ganze Ext-Zeug etc. genauso rumfragmentiert, aber es einfach keinem aufällt, weil es erst gar keine Defragmentierungslösungen gibt.

ZFS und btrfs sind sogar besonders anfällig, wegen Copy-On-Write.

=Floi=
2011-04-27, 01:45:42
1.) SSDs sollten keine Defragmentierung mehr benötigen,da hier keine mechanischen Bauteile mehr vorhanden sind und hier kein Geschwindigkeitszuwachs vorhanden sein dürfte.


3.) http://www.heise.de/newsticker/meldung/Steganografie-durch-gezielte-Festplatten-Fragmentierung-1231920.html


aufgrund des aufbaus einer SSD ist hier defragmentieren eher schädlich. hier "denkt" aber der controller und verwaltet die daten. nur kosten diese eben teils über 1,5€ pro gb und sind deswegen nur für kleine datenmengen verwendbar.


der link ist echt porno. :eek: das ist ja ne total kuriose idee und erinnert an bond.

Lokadamus
2011-04-27, 03:41:49
Sicher? Es ist sehr einfach nicht fragmentierende Dateisysteme zu schreiben, einfach einen Fehlercode zurückgeben wenn die Datei nicht unfragmentiert passt...mmm...

Ja, kannst du, aber dann ist dein OS/ deine HDD nur noch damit beschäftigt die ganze HDD permanent neu zu schreiben, um Lücken zu füllen. Eine kleine Quote an Fragmenten stört nicht.aufgrund des aufbaus einer SSD ist hier defragmentieren eher schädlich. hier "denkt" aber der controller und verwaltet die daten. nur kosten diese eben teils über 1,5€ pro gb und sind deswegen nur für kleine datenmengen verwendbar. Ich kann mich an eine News/ Bericht erinnern, wo das Defragmentieren bei SSDs eingesetzt werden soll, um die Zellen gleichmäßig zu benutzen. Bei häufiger Nutzung gehen sie schnell kaputt und da meistens der vordere Bereich benutzt wird, geht dieser eher kaputt. Dadurch soll eine höhere Lebenserwartung erreicht werden.

ndrs
2011-04-27, 08:45:44
Ich kann mich an eine News/ Bericht erinnern, wo das Defragmentieren bei SSDs eingesetzt werden soll, um die Zellen gleichmäßig zu benutzen. Bei häufiger Nutzung gehen sie schnell kaputt und da meistens der vordere Bereich benutzt wird, geht dieser eher kaputt. Dadurch soll eine höhere Lebenserwartung erreicht werden.
Dazu gibt es Wear-Leveling. Defragmentieren bewirkt bei SSDs eher das Gegenteil, da es unnötige Schreiboperationen ausführt, die die Zellen "abnutzen".
Aber wer unbedingt defragmentieren will, sollte das auch richtig machen: http://www.youtube.com/watch?v=96dWOEa4Djs :)

Coda
2011-04-27, 13:47:28
Vor allem sollte man nicht das Windows-Tool verwenden, sondern MyDefrag (http://www.mydefrag.com/). Das sortiert auch nach Wichtigkeit etc. und ist auch um einiges schneller.

Xmas
2011-04-27, 22:45:40
[...] und weil das Zeitfenster vom Process beendet ist.
Das spielt keine Rolle.

Lokadamus - nixBock
2011-04-28, 15:07:54
Das spielt keine Rolle.mmm...

:| Bist du dir da ganz sicher, dass es keine Rolle spielt?
Immerhin reden wir hier mit viel Phantasie davon, dass jetzt ein Process loslegen könnte, der jede Menge Dateien (vielleicht auch nur 1 große Datei) kopieren will und ein weiterer Process will noch ein paar Dateien in einen anderen Ordner kopieren. Dazu haben wir noch nicht die Windows- Swap- Geschichte berücksichtigt und die ganz kranken haben noch ein Defragtool am Laufen, während die Kopiervorgänge laufen :ugly:.
Die HDD interessiert es zwar wirklich nur bedingt, weil sie die Daten hin und herschubst, da aber der Kopiervorgang zwischendurch fertig wird, muss dieser irgendwie seinen Weg zwischen den großen Kopiervorgang gefunden haben.