PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SSD´s und NTFS komprimierung=schneller?


Der HeinZ
2011-03-08, 23:56:41
Hallo zusammen,

ich betreibe eine SSD an einem normalen (E)IDE Controller, also keine S-ATA, die hier maximale Datentransferate beträgt daher nur 89 - 92 MB/s sequentiell.
(Bitte keine Hinweise auf umstellen auf AHCI im BIOS, das geht definitiv nicht, der Controller kann maximal U-DMA 6, die SSD kann maximal mit UDMA 5 umgehen)
Das NTFS Datei-System bietet die möglichkeit ein Laufwerk bzw. die Dateien auf dem Laufwerk zu komprimieren. Leider kenne ich mich damit nicht super genau aus, ich weiß zumindest aus eigener Erfahrung das die Kompression gerade bei kleinen Office Datein oder großen Bilddateien ohne Kompression sehr viel Platz spart. Soweit sogut.
Nun Frage ich mich natürlich ob es aus Performance technischer Sicht "eventuell" Sinn macht, wenn man die komprimierung aktiviert.
Wie gesagt ich kenne mich mit den genauen NTFS-Spezifikationen nicht aus.

Als leihe würde ich annehmen das, dass das Schreiben als auch das lesen unter umständen schneller von statten gehen könnte, da sich die Dateigröße teilweise drastisch reduziert und die SSD weniger schreibt und liest. Dadurch würde ich die fehlende Leistung des IDE-Controllers teilweise kompensieren können. (Außer NTFS komprimiert nicht on-the fly sondern nachträglich, das wäre natürlich scheiße)
(Natürlich sei als Prozessor mindestens ein Dualcore vorrausgesetzt, um die NTFS kompression ausreichend schnell zu meistern)
Wer weiß da genaueres?
Oder ist es eventuell auch schlechter für die Lebensdauer der SSD oder eventuell sogar besser?
Danke im Vorraus
Gruß Matthias

DELIUS
2011-03-09, 00:16:26
Schöne Vortsetzung von:
"NTFS Kompression - Sinnvoll? Nutzt ihr sie? ( 1 2 3 4 5) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=460790&highlight=ntfs)

:popcorn:

~ kann nicht mitreden, habe nur normale HDDs ~

denke aber "ja", bringt was

DerRob
2011-03-09, 01:10:49
~ kann nicht mitreden, habe nur normale HDDs ~

denke aber "ja", bringt was
Das gilt doch für Festplatten genauso.

Meine Beobachtungen mit der NTFS-Komprimierung:
Beim Lesen der Daten bringt es einen Vorteil, je nachdem wie gut sich die Daten komprimieren lassen und wie schnell die CPU mit dem Dekomprimieren ist. Allerdings muss man bei herkömmlichen Festplatten einen Punkt beachten, der beim Schreiben auftritt. Dazu gleich mehr.

Beim Schreiben der Daten hat man allerdings keinen Geschwindigkeitsvorteil, eher einen Nachteil. Nach meinen Beobachtungen wird die Datei erstmal unkomprimiert auf den Datenträger geschrieben, und erst später im Hintergrund Stück für Stück komprimiert. Auf HDDs hat das den Nachteil, daß die Datei extrem fragmentiert wird. Lassen sich die Daten um 50% komprimieren, wird aus einer Datei, die auf der Platte 40 kB = 10 Blöcke hintereinander belegt, eine Datei, die zwar nur noch 20 kB = 5 Blöcke belegt, die Blöcke sind aber immer abwechselnd belegt, frei, belegt, frei, usw. die 40 kB-Datei ist jetzt also in 5 Teile fragmentiert. Der Geschwindigkeitsvorteil durch die Kompression wird also durch die höhere Zugriffszeit durch die Fragmentierung erstmal wieder (mehr als) aufgehoben. Ein nachträgliches Defragmentieren kann das ganze aber wieder ausgleichen.

SSDs haben zwar keine (bzw. weniger) Probleme mit fragmentierten Dateien, hier kommt aber die höhere Schreiblast zum Tragen. Die Datei wird ja quasi 2x auf die SSD geschrieben, erstmal unkomprimiert, und danach gleich nochmal komprimiert. Die Haltbarkeit der SSD sinkt dadurch also eher.
Andererseits ist der Speicherplatz auf einer SSD eher knapp, da ist jedes gesparte GB kostbar. :)

Meine Empfehlung wäre also: Für Dateien, die nur einmal (oder nur selten) geschrieben, und anschließend nur noch gelesen werden: einschalten. Bei Dateien, die sich häufig ändern: ausschalten. Bei Festplatten nach dem Komprimieren unbedingt einmal Defrag laufen lassen.

registrierter Gast
2011-03-09, 01:39:18
[..] Beim Schreiben der Daten hat man allerdings keinen Geschwindigkeitsvorteil, eher einen Nachteil. Nach meinen Beobachtungen wird die Datei erstmal unkomprimiert auf den Datenträger geschrieben, und erst später im Hintergrund Stück für Stück komprimiert. [..]
Dafür hätte ich gerne eine offizielle Quelle. Das ein fortschrittliches Dateisystem so vorgeht, erscheint mir höchst suspekt, wenn nicht sogar extrem dämlich (:D).

Der HeinZ
2011-03-09, 02:01:46
Das gilt doch für Festplatten genauso.

Meine Beobachtungen mit der NTFS-Komprimierung:
Beim Lesen der Daten bringt es einen Vorteil, je nachdem wie gut sich die Daten komprimieren lassen und wie schnell die CPU mit dem Dekomprimieren ist. Allerdings muss man bei herkömmlichen Festplatten einen Punkt beachten, der beim Schreiben auftritt. Dazu gleich mehr.

Beim Schreiben der Daten hat man allerdings keinen Geschwindigkeitsvorteil, eher einen Nachteil. Nach meinen Beobachtungen wird die Datei erstmal unkomprimiert auf den Datenträger geschrieben, und erst später im Hintergrund Stück für Stück komprimiert. Auf HDDs hat das den Nachteil, daß die Datei extrem fragmentiert wird. Lassen sich die Daten um 50% komprimieren, wird aus einer Datei, die auf der Platte 40 kB = 10 Blöcke hintereinander belegt, eine Datei, die zwar nur noch 20 kB = 5 Blöcke belegt, die Blöcke sind aber immer abwechselnd belegt, frei, belegt, frei, usw. die 40 kB-Datei ist jetzt also in 5 Teile fragmentiert. Der Geschwindigkeitsvorteil durch die Kompression wird also durch die höhere Zugriffszeit durch die Fragmentierung erstmal wieder (mehr als) aufgehoben. Ein nachträgliches Defragmentieren kann das ganze aber wieder ausgleichen.

SSDs haben zwar keine (bzw. weniger) Probleme mit fragmentierten Dateien, hier kommt aber die höhere Schreiblast zum Tragen. Die Datei wird ja quasi 2x auf die SSD geschrieben, erstmal unkomprimiert, und danach gleich nochmal komprimiert. Die Haltbarkeit der SSD sinkt dadurch also eher.
Andererseits ist der Speicherplatz auf einer SSD eher knapp, da ist jedes gesparte GB kostbar. :)

Meine Empfehlung wäre also: Für Dateien, die nur einmal (oder nur selten) geschrieben, und anschließend nur noch gelesen werden: einschalten. Bei Dateien, die sich häufig ändern: ausschalten. Bei Festplatten nach dem Komprimieren unbedingt einmal Defrag laufen lassen.

@ der Rob
Bei den HDD geb ich dir recht, so wie es scheint wird alles sehr fragmentiert, wenn man es speichert. Hierfür sollte aber gerade die Option NCQ so einiges wieder gutmachen, denn genau hier macht das sortierte und sinnvolle lesen der Speicherfragmente einiges an Geschwindigkeit aus. Hast du diese Beobachtung denn beim nachträglichen oder beim on the fly kopieren gemacht?
Wenn das stimmt, dann wäre das ganze ja absolut sinnlos z.B. für Server, man würde ja die integrität des Speichermediums als auch der darauf vorhandenen Datei jedesmal verkleinern.

So edit:
Man sollte es auf SSD´s tatsächlich sein lassen, aber auf USB Sticks, auf denen nur gelesen wird, ist es eine super sache, denn :
Wenn Sie eine komprimierte NTFS-Datei in einen anderen Ordner kopieren oder verschieben, wird die Datei von NTFS dekomprimiert, an den neuen Standort kopiert oder verschoben und dann erneut komprimiert. Dies geschieht auch dann, wenn die Datei in einen anderen Ordner auf demselben Computer kopiert oder verschoben wird. Bei Netzwerkübertragungen werden komprimierte Dateien dekomprimiert, daher spart die NTFS-Komprimierung keine Netzwerkbandbreite ein.
Das ist ein Zitat aus der Informationsecke von Microsoft.
Das erklärt jetzt eine ganze Menge:
Schreiben:
Das Schreiben erhöht sowohl die CPU Last, als auch die Schreiblast inkl. der Lebensdauer des mediums, und zwar ist das ganze auch noch so blöde geschachtelt, das sich beides gleichzeitig abspielt und somit ein Performance-Engpass entsteht.
Grund ist das doppelte ablegen der Datei in normaler vorm und dann nochmal in komprimierter Form.<---------------------- Heutzutage Sinnlos!!!
Frage: Warum wird das nicht im 100000x schnelleren Hauptspeicher gemacht????
Antwort: Na klar, weil es damals bei der erfindung von NTFS nicht genug Hauptspeicher gab um dies zu vollziehen.
ohne Zugriff auf den Hauptspeicher wäre natürlich die sinnvollste Lösung gewesen.
So, also schreiben=sinnlos!
lesen:
Beim lesen kommt es jetzt wirklich darauf an , wer schneller ist. Das Laufwerk, oder der Prozessor (natürlich verhältnismäßig).
Gerade hier ist eine defragmentierung und das einbinden von NCQ eine super Sache:
Wenn das Medium die nun kleinere Datei am Stück abgelegt sequenziell mit höchster Datenrate lesen kann,
kann es dementsprechend schnell dekomprimiert werden, wenn der Prozessor schnell genug ist.
Ist die Datei sehr fragmentiert, wird durch NCQ schon eine ganze menge gewonnen, da sich die Zugriffzeit auf die einzelnen fragmentierten Bereiche merklich beschleunigt.
Also langsames laufwerk, auf das so gut wie garnicht geschrieben wird und schneller Prozessor sind eine perfekte Mischung um NTFS-Komprimierung zu nutzen.
Hieraus kann man schlussfolgern das ein langsamer USB 2.0 Stick das absolut perfekte Speichermedium für den Nutzen von NTFS ist, denn fühlbar muss sich die übertragung verkürzen, da nur die komprimierten Daten gelesen und entpackt werden, zudem ist Zugriffzeit auf einem USB Stick in der Regel niedrig genug. (natürlich bleibt die reine Datenübertragung gleich lahm, aber die Dateien sind nunmal kleiner)
Umso effizienter das Dokument kompriemiert wurde, umso kürzer die Dauer des ladens.

Im übrigen ist es ja logisch das aus dem Netzwerk heraus dekomprimiert wird, man weiß ja nicht ob das Laufwerk im anderen Rechner NTFS-Dateisystem hat und die komprimierung untertützt.

Okay, das bedeutet aber für mich "NO GO" auf einer ssd , die verliert zu sehr an Lebensdauer.
Auf einem Datenschieber USB Stick werde ich es aber in zukunft nutzen, ebenso auf meiner Datengrab-Festplatte.
Hoffe es wird irgendwann man "on the fly" komprimieren geben wenn man von Laufwerk zu Laufwerk kopiert, um auch beim schreiben von der komprimierung zu profitieren.
Gruss Matthias

DerRob
2011-03-09, 02:10:19
Dafür hätte ich gerne eine offizielle Quelle. Das ein fortschrittliches Dateisystem so vorgeht, erscheint mir höchst suspekt, wenn nicht sogar extrem dämlich (:D).
Eine offizielle Quelle hab ich dafür leider nicht, du kannst es aber gerne selber ausprobieren: kopiere einfach eine etwas größere Datei in einen Ordner, für den bereits die Kompression aktiviert ist, und schau dir die Dateieigenschaften direkt beim/nach dem Kopieren und nochmal etwas später an.

Direkt nach dem Kopieren:
http://s13.directupload.net/images/110309/g5j7ktpf.png (http://www.directupload.net)

Ein paar Minuten später:
http://s13.directupload.net/images/110309/lq496dcc.png (http://www.directupload.net)

Defrag-Tool:
http://s10.directupload.net/images/110309/9tmwj9to.png (http://www.directupload.net)

Und ja, ich finde es auch äußerst dämlich... :rolleyes:

Der HeinZ
2011-03-09, 02:20:46
Dafür hätte ich gerne eine offizielle Quelle. Das ein fortschrittliches Dateisystem so vorgeht, erscheint mir höchst suspekt, wenn nicht sogar extrem dämlich (:D).
Das Dateisystem ist fortschrittlich, einzig die komprimierung ist dumm..... Ein bißchen Schwund gibts immer, eventuell war es damals aufgrund der CPU-Leistung oder aufgrund von zuwenig Hauptspeicher (wenn man die Daten vorher komplett im Hauptspeicher dekomprimiert) einfach nicht wirklich sinnvoll, und so hat man sich so eine komplexe Schreib/komprimier-Strategie gespart.
Gruss Matthias

Der HeinZ
2011-03-09, 02:22:28
Hier hab ich euch mal die Quelle rausgesucht:
http://support.microsoft.com/kb/251186/de

In diesem Forum, wird berichtet, das Microsoft NICHT davon ausgeht das die Datei 2 mal geschrieben wird.
Da hat der Microsoft IT-Azubi sich wohl vertan :)
http://www.hardwareluxx.de/community/f227/ntfs-kompression-auf-einem-ssd-systemlaufwerk-sinnvoll-742679.html