PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : sinnvolle festplattenkomprimierung ohne leistungsverlust


ROXY
2011-08-16, 21:53:44
hallo - gibt es schon gute festplattenkomprimierungstechniken die die grösse verdoppeln bei gleichbleibender geschwindigkeit?
in zeiten von 6 core cpus und 8 GB speicher für lau wäre das doch kein problem mehr denke ich.

einziger nachteil den ich sehe an dem ganzen ist eine zusätzliche mögliche fehlerquelle.
das sollte für den home user jener zu 99,99% total unwichtige daten besitzt aber doch eher unwichtig sein.

Gissmo
2011-08-16, 23:39:07
Kurz gesagt wohl nein.
Festplatten sind groß und dabei sehr günstig.

Welche beim Privatnutzer üblichen Inhalte würden eine HDD füllen und wären komprimierbar?

Verlustfrei (Voraussetzung) ist bei Musik, Filmen und Bildern (in üblichen Formaten) nahezu nichtsmehr zu holen.

Was bleibt dann noch? 500GB Textdateien? (wohl möglich aber vermutlich die Ausnahme)

Nevermore4ever
2011-08-16, 23:41:38
Richtig. Für Texte geht es ziemlich gut, für Programme auch einigermaßen, für Medien praktisch nicht. Man kann es dafür sehr leicht mit Windows-Bordmitteln ohne weitere Anschaffungen hinkriegen, in den Eigenschaften einer Datei, eines Verzeichnisses oder einer ganzen Partition.

sloth9
2011-08-17, 01:00:03
Genau.
Alles was gross ist, ist doch bereits komprimiert. War früher anders.
Filme, Musik...
Selbst OO-Dokumente und die neuen MS-Formate sind quasi gezippt, gleiches gilt für viele Spiele-Dateien (.pak z.B.).

DELIUS
2011-08-17, 01:12:27
Es gab vor einiger Zeit einen recht interessanten Thread zu dem Thema.
Ich behaute mal, die meisten Argumente (pro - kontra) gelten auch heute noch.

Nutzt ihr die NTFS-Kompression? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=460790)

Tesseract
2011-08-17, 01:14:33
hallo - gibt es schon gute festplattenkomprimierungstechniken die die grösse verdoppeln bei gleichbleibender geschwindigkeit?

komprimierungsraten sind immer kontextsensitiv. eine feste kompressionsrate von 100% kannst du nicht garantieren, es sei denn die kompression ist verlustbehaftet und du verlierst im ungünstigen fall information.

gäbe es eine solche "universal-kompression" wäre sie seit ewigkeiten fest im plattencontroller verbaut und vollkommen transparent.

aber wie gesagt: die daten, die viel platz einnehmen (audio, video, bilder) sind meist ohnehin so gut komprimiert, dass zusätzliche verschachtelte kompressionen nichts wesentliches mehr rausholen können.

ROXY
2011-08-17, 02:55:38
aber wie gesagt: die daten, die viel platz einnehmen (audio, video, bilder) sind meist ohnehin so gut komprimiert, dass zusätzliche verschachtelte kompressionen nichts wesentliches mehr rausholen können.

schon klar, aber wissenschaftler finden doch immer wieder wege um ans ziel zu kommen.
gerade in zeiten der SSD währen hochkomprimierte datenträger sinnvoll.
ich meine kompressionen ohne qualitätsverlusst ala zip

geht denn da nicht was mit fraktalen ??

mAxmUrdErEr
2011-08-17, 08:45:31
schon klar, aber wissenschaftler finden doch immer wieder wege um ans ziel zu kommen.
gerade in zeiten der SSD währen hochkomprimierte datenträger sinnvoll.
ich meine kompressionen ohne qualitätsverlusst ala zip

geht denn da nicht was mit fraktalen ??
:uponder:

Vielleicht geht ja was mit Ratiopharm, eine andere Lösung ist für dich nicht vorstellbar.

DocEW
2011-08-17, 09:34:37
geht denn da nicht was mit fraktalen ??
Nein, aber mit Plasma-Laser-Graphen...ähh...Quanten-Dings. Bestimmt. Das löst dann auch gleich die Finanzkrise. :uup:

Exec
2011-08-17, 17:11:04
Naja.. allso man könnte natürlich eine Quelle verwenden, die wirkliche Zufallszahlen liefert.. z.B. Hintergrundstrahlung einer zerfallenden radioaktiven Quelle.

Wir hashen die ursprüngliche Datei mit mehreren Algorithmen.. speichern diese Hashes sowie die Information, wie gross die Datei ist.

Anschliessend brauchen wir einen Speicher, der mindestens so gross wie die ursprüngliche Datei ist und speichern dort die Daten der Zufallsquelle. Hashen diese wenn Sie die gewünschte Datenmenge der zu entpackenden Datei erreicht haben und vergleichen Sie mit den Hashes der zu entpackenden Datei.

Anfangs ist natürlich die Übertragungsrate ziemlich gering, aber je mehr Daten wir gleichzeitig entpacken wollen, umso grösser wird die Warscheinlichkeit, dass einer dieser Dateien in den Zufallsdaten enthalten ist.

Das heisst allso, je mehr wir gleichzeitig entpacken, umso schneller (!!) wird diese Technik.

Bin mal gespannt wann dies umgesetzt wird...

;D

Gipsel
2011-08-17, 20:45:48
Kommen hier nur noch solche Schwachsinns-Posts?
=> Zu.