PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : WinXP - Dekomprimierung, welches Prog holt am meisten bei einem C2D raus?


Die gelbe Eule
2007-05-28, 22:50:08
Im Moment nutze ich 7zip 4.44beta mit C2D Optimierung. 32MB kann ich maximal fahren. Vielleicht ist es schon oberen Grenze, aber Fragen kostet nix :)

Gast
2007-05-28, 22:54:10
Im Moment nutze ich 7zip 4.44beta mit C2D Optimierung. 32MB kann ich maximal fahren. Vielleicht ist es schon oberen Grenze, aber Fragen kostet nix :)

Was hat das mit der CPU zu tun? 96MB gingen schon auf einem Pentium III :)

Das ist die Wörterbuchgröße, die bestimmt, wieviele Daten an einem "Stück" analysiert und komprimiert werden. Je mehr, desto besser, desto höher die Kompression, aber auch desto höher der Speicherverbrauch und desto langsamer die Geschwindigkeit.

Bei 128MB braucht man schon 2-3 GB RAM und darüber hinaus ein 64 bit Betriebssystem. :)

(del)
2007-05-28, 23:01:39
Hallo du gelber Vogel ;) Hier gibt es eine 4.47 Beta. Das ist endlich eine die an den Level der 4.44 kommt (Fehlerfreiheit). Der Link geht auf CB, weil er "einfach" ist
http://www.computerbase.de/downloads/software/packprogramme/7-zip/

Hier http://tinyurl.com/2mku9f gibt es CPU-spezifische DLLs von Hof-Commonbuilder 'noangel'. Sie sind sauber und im Kode nicht verändert. Nur neu kompiliert mit ICC9 (+ AMD-Patch) und VC8sp1.

Da seit einigen Versionen alles in einer einzigen 7z.dll steckt, wird damit auch das Entpacken beschleunigt. Von allen Formaten die 7-zip unterstützt. Bei mir entpackt es RAR schneller als WinRAR 3.70b8 selbst.

Installieren, so oder so und 7-zip unabhängig, sollte man davor das:
http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=200b2fd9-ae1a-4a14-984d-389c36f85647

@Gast
Das mit den 32MB hab ich auch nicht verstanden. Aber fragen kostet ja nichts ;)

Die gelbe Eule
2007-05-28, 23:17:07
Ich habe einen Speed von 32MB/s beim entpacken, das wollte ich damit ausdrücken ;)

@BessereHälfte:
Da tat sich einiges, hab nun einen Speed von knapp 65MB/s.
Danke für den Link.

(del)
2007-05-28, 23:19:35
Das muß nichts heißen. Vielleicht wurde nur der Bench überarbeitet? ;)

Mit welcher DLL bzw. hast du die passende DLL installiert?

Die gelbe Eule
2007-05-28, 23:25:09
Ich hab die C2D genommen aus dem Ordner, AMD wäre ja sinnfrei für ne Intel CPU ;)

mofa84
2007-05-28, 23:32:06
IMHO ist bei Dekomprimieren eher die Platte die begrenzende Einheit.


Wenn du nach dem Komprimieren gefragt hättest, könnte ich die Frage ja noch verstehen. Aber ob ich für ein sagen wir mal 30MB-Archiv jetzt 1 oder 2 Sekunden brauche ist mir ziemlich egal, und dass es bei einem 700MB-Archiv nicht an der CPU liegen kann dürfte wohl offensichtlich sein.

(del)
2007-05-28, 23:39:46
Selbstverständlich muß sich daraus eine prinzipielle Diksussion entwickeln :rolleyes: Was dann wieder für Treiber die 105 statt 98 fps bringen nicht gilt...

Ich weiß nicht was wann limitiert und wie das bei verschlüsselten Archiven aussieht (steckt auch in der 7z.dll) und wie sich das Ganze auf einem noch mit anderen Anwendungen belasteten (muß nicht Vollast sein) Rechner auswirkt. Die Versionen sind effizienter (Leistung) pro Mhz und das ist schon alles.

Was wem egal ist hält mich nicht von dem Einsatz einer effizienterer Version ab.

mofa84
2007-05-29, 00:03:35
Ich weiß nicht was wann limitiert und wie das bei verschlüsselten Archiven aussieht (steckt auch in der 7z.dll) und wie sich das Ganze auf einem noch mit anderen Anwendungen belasteten (muß nicht Vollast sein) Rechner auswirkt. Die Versionen sind effizienter (Leistung) pro Mhz und das ist schon alles.sorry, aber das ist wohl offensichtlich!

Bei einem 700MB-Archiv muss die Platte mindestens! 1400MB Daten lesen bzw. schreiben, je nach Komprimierungsgrad können das auch mal gern 3500MB oder so sein!

Das würde im Falle von einer Minimalstkomprimierung schon bedeuten, dass eine Platte mit angenommenen 50MB/s (was ich jetzt schon als optimistisch bezeichnen würde) 28 Sekunden benötigen würde - im Idealfall, ohne Fragmentierung und dazu noch die Schreib-/Lesekopfbewegung vernachlässigt. Ich bin kein absoluter Fachmann, aber es braucht für 1400MB sicher nicht mal einen C2D, um die Platte limitieren zu lassen, denn nur vergleichsweise liegt der theoretische RAM-Durchsatz schon bei 4GB/s und zur Dekompression ist kaum/nicht viel Rechenleistung nötig.

(del)
2007-05-29, 00:13:44
Es gibt zwar syncrone Algos, also welche die genauso viel Zeit zur Dekomprimierung brauchen, aber das ist jetzt nicht das Thema.
Was ist, wie gesagt, wenn der Packer nur 30% der CPU-Leistung bekommt und das Archiv mit maximalen Einstellungen komprimiert wurde?

Ich gebe dir aber insofern Recht, daß man es aus reiner "Dekomprimierungssicht" nicht betrachten sollte. Und wenn man es dann auch nicht tut, bringen diese DLLs schon was. Nicht jeder hat auch gleich einen fetten C2D.

bis denn mal

mofa84
2007-05-29, 00:22:34
Es gibt zwar syncrone Algos, also welche die genauso viel Zeit zur Dekomprimierung brauchen, aber das ist jetzt nicht das Thema.
Was ist, wie gesagt, wenn der Packer nur 30% der CPU-Leistung bekommt und das Archiv mit maximalen Einstellungen komprimiert wurde?

Ich gebe dir aber insofern Recht, daß man es aus reiner "Dekomprimierungssicht" nicht betrachten sollte. Und wenn man es dann auch nicht tut, bringen diese DLLs schon was. Nicht jeder hat auch gleich einen fetten C2D.

bis denn malGerade bei einem Dual-Core hat der Packer wohl immer min. 1 CPU zu verfügung, wenn man sich mal die schlechte Dual-Core-Ausnutzung so gut wie aller aktuellen Programme betrachtet. Und selbst dieser eine Kern ist noch viel zu schnell, und sollte das mit dem einem Kern nicht der Fall sein, dann nur, weil an anderes, deutlich fetteres Programm wie ein Spiel oder ein Render-Programm läuft, und wen es beim Zocken (welches idR auch noch die Platte bremst) juckt ob das entpacken nur 5 oder 10 Minuten dauert bzw. während des Renderns oder Encodens entpackt, der gehört letztlich erschossen - den solchen Menschen ist so langweilig, dass sie den ganzen Tag wohl nix besseres zu tun haben als zu versuchen ihre überdimensionierte CPU krampfhaft und künstlich auszulasten!

Gast
2007-05-29, 17:32:12
7-zip fährt 2 Threads pro Kern. Momentan maximal 4. Der legt sich schon gut ins Zeug.

Es ist mir auch wesentlich lieber die "Problem" von Eule zu haben als deine. Ehrlich :|

mofa84
2007-05-29, 17:47:42
7-zip fährt 2 Threads pro Kern. Momentan maximal 4. Der legt sich schon gut ins Zeug.

Es ist mir auch wesentlich lieber die "Problem" von Eule zu haben als deine. Ehrlich :|Ja dann hoffe ich mal für dich dass du ein RAID0 aus 8 Raptoren hast, dann bringt dir das ganze vielleicht was.

The_Invisible
2007-05-29, 19:15:26
Hallo du gelber Vogel ;) Hier gibt es eine 4.47 Beta. Das ist endlich eine die an den Level der 4.44 kommt (Fehlerfreiheit). Der Link geht auf CB, weil er "einfach" ist
http://www.computerbase.de/downloads/software/packprogramme/7-zip/

Hier http://tinyurl.com/2mku9f gibt es CPU-spezifische DLLs von Hof-Commonbuilder 'noangel'. Sie sind sauber und im Kode nicht verändert. Nur neu kompiliert mit ICC9 (+ AMD-Patch) und VC8sp1.

Da seit einigen Versionen alles in einer einzigen 7z.dll steckt, wird damit auch das Entpacken beschleunigt. Von allen Formaten die 7-zip unterstützt. Bei mir entpackt es RAR schneller als WinRAR 3.70b8 selbst.

Installieren, so oder so und 7-zip unabhängig, sollte man davor das:
http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=200b2fd9-ae1a-4a14-984d-389c36f85647

@Gast
Das mit den 32MB hab ich auch nicht verstanden. Aber fragen kostet ja nichts ;)

ah, sehr gut, genau das habe ich gerade eben gesucht.

wie kommt man eigentlich auf solche links?

mfg

(del)
2007-05-29, 19:29:28
wie kommt man eigentlich auf solche links?Auch du hast mich schon mit so manchem Link überrascht. Wo liegt das Problem? ;)

[Bi]n ein Hoeness
2007-05-29, 21:57:24
Hier http://tinyurl.com/2mku9f gibt es CPU-spezifische DLLs von Hof-Commonbuilder 'noangel'. Sie sind sauber und im Kode nicht verändert. Nur neu kompiliert mit ICC9 (+ AMD-Patch) und VC8sp1.
interessant. sehe ich das richtig, dass diese dlls nur für die 4.47beta sind?

(del)
2007-05-29, 22:04:36
Sie entstammen dieser Beta. Richtig.

Die gelbe Eule
2007-05-30, 00:06:41
Hmmm, mit Multiarchiven ist der Speed nicht wirklich prall. 4-5MB/s finde ich etwas lahm :(
Da half auch die neue Beta nicht weiter.

(del)
2007-05-30, 00:11:31
War der früher beim 7-zip besser?

Ich will niemandem einreden, daß es in jeder Hinsicht ein besserer Packer als zB. Winrar 3.70 ist. Denn das würde nicht stimmen.

Gast
2007-05-30, 07:01:43
Ich will niemandem einreden, daß es in jeder Hinsicht ein besserer Packer als zB. Winrar 3.70 ist. Denn das würde nicht stimmen.

Ist es auch nicht. Das Programm ist noch lange nicht ausgereift von der Bedienung. Da gefällt mir der Mini-Dialog von WinRAR besser.

Außerdem packt 7z bei Multimedia Dateien meistens schlechter, weil ein entsprechender Filter fehlt.

DerRob
2007-05-30, 15:02:02
Hier http://tinyurl.com/2mku9f gibt es CPU-spezifische DLLs von Hof-Commonbuilder 'noangel'. Sie sind sauber und im Kode nicht verändert. Nur neu kompiliert mit ICC9 (+ AMD-Patch) und VC8sp1.
das sind alles x32-dlls, oder? wo gibts denn solche angepassten versionen für 64bit-systeme?

Rooter
2007-05-30, 18:20:23
Außerdem packt 7z bei Multimedia Dateien meistens schlechter, weil ein entsprechender Filter fehlt.
Stimmt. Aber irgendwo hier im Forum steht zu lesen das die Multimediakompression mittelfristig (dieses Jahr) implementiert werden soll. Dann hätte RAR allerdings verloren.

MfG
Rooter

Gast
2007-05-30, 18:23:46
Stimmt. Aber irgendwo hier im Forum steht zu lesen das die Multimediakompression mittelfristig (dieses Jahr) implementiert werden soll. Dann hätte RAR allerdings verloren.


Glaube ich ehrlich gesagt nicht.
7z erreicht die hohe Kompressionsrate durch teilweise sehr hohe Wörterbuchgrößen (32-128MB), während RAR noch bei 4096KB rumkrebst.

Wenn 7z vorlegt, könnten die RAR-Macher die Wörterbuchgröße noch verzweiunddreizigfachen. :)

Konkurrenz belebt eben das Geschäft...

Gast
2007-05-30, 22:36:57
Das ist keine Frage des Glaubens. Das wird passieren. Andere Frage ist es, ob die Vergrößerung des Wörterbuches bei RAR überhaupt etwas bringt. Eine Fausregel ist das jedenfalls nicht. Es gibt algorythmen die damit gut skalieren und es gibt welche die skalieren eher düftig.

Ob die Bedienung von Winrar wegen dem Minidialog besser ist möchte ich nicht beurteilen. Jeder hat eigene Ansichten und Bediengewohnheiten. Ich brauche 7-zip oft. Daher nutze ich meistens das Kontextmenü. Und das ist beim 7-zip super.
Ich verschlüssel auch öfters und die Karteireiterei beim Packdialog unter Winrar legt mir überhaupt nicht. Auch das Wechseln der Packstärke (man möchte schon vorgepacktes manchmal einfach nur zur einer Datei zusammenfügen). Beim 7-zip habe ich alles was ich brauche sofort in einem Fenster.

7-zip kostet mich höhstens nur eine Spende und ist hier mittlerweile auch schneller als Winrar. Wenn man nicht gerade BMP-Bilder packt ist das Ratio auch BEACHTLICH besser. Soll ich jetzt über etwas meckern?
Winrar dagegen hat paar sehr gute "speziellere" Optionen, die einige bestimmt gut gebrauchen können. Ich komme auch ohne klar.

Gast
2007-05-31, 01:49:41
Andere Frage ist es, ob die Vergrößerung des Wörterbuches bei RAR überhaupt etwas bringt. Eine Fausregel ist das jedenfalls nicht. Es gibt algorythmen die damit gut skalieren und es gibt welche die skalieren eher düftig.

Das bringt immer was, das hat auch nichts mit den Format zu tun.

Derzeit arbeitet WinRAR mit maximal 4 MB. Es liest also immer 4 MB Stücke ein und sucht in diesen 4 MB nach Gemeinsamkeiten.
Wenn es nach 128 MB Blöcke suchen würde, wären da mehr Gemeinsamkeiten zu finden und die Kompressionsrate am Ende höher... aber auch der Speicherverbrauch.
Wird aber auch Zeit, die 30-50MB RAM die WinRAR jetzt benutzt hat, schafft mittlerweile jeder Rechner.

(del)
2007-05-31, 02:00:27
Wird aber auch Zeit, die 30-50MB RAM die WinRAR jetzt benutzt hat, schafft mittlerweile jeder Rechner.Irgendwie habe ich das Gefühl, daß wir das auch diesjahr nicht erleben werden. Frag doch mal warum und sag dann bescheid http://www.rarsoft.com/feedback.htm

@DerRob
Gibt es leider nicht. Ich glaub 7-zip64 benutzt größere Pages. Da soll er eh allen anderen Versionen und Konkurenten davon rennen.

Gast
2007-05-31, 03:47:15
Irgendwie habe ich das Gefühl, daß wir das auch diesjahr nicht erleben werden.

Verständlich, oder? Die verdienen Geld damit, sie liefern es dann, wenn die Konkurrenz wesentlich besser ist.
Einmal haben sie ja schon erhöht... :)

Ich bin mir sicher, das RAR perfekt wäre, wenn es dutzende Kerne völlig auslasten könnte und eine Dictionary Size bis 256MB unterstützen würde.

Dann sähe 7z sehr alt aus, weil bei gleicher Dictionary ist 7z teilweise schlechter, bei multimediadateien erst recht. Außerdem gefällt mir die Oberfläche besser.

Gast
2007-05-31, 13:20:10
Verständlich, oder? Die verdienen Geld damit, sie liefern es dann, wenn die Konkurrenz wesentlich besser istFakt ist, daß man mit 7-zip meistens wesentlich besser und mindestens genauso schnell wie mit Winrar packen kann.

Einmal haben sie ja schon erhöht... :)Wieviel hat es damals gebracht? Wurden die neuen Versionen damit auch komischerweise nicht inkompatibel zu den alten? Hast du den 2.8 noch irgendwo? Ich erinner mich nicht mehr so.

Ich bin mir sicher, das RAR perfekt wäre, wenn es dutzende Kerne völlig auslasten könnte und eine Dictionary Size bis 256MB unterstützen würdeDie Roshals haben es natürlich nicht nötig perfekte Software abzuliefern und jedwede Konkurrenz zu deklassieren.

Gast
2007-05-31, 14:46:57
Wieviel hat es damals gebracht?

Hängt immer von der Dateiart ab...

Am obigen Beispiel ist schon erkennbar, das 4096KB eindeutig zu wenig sind.
Weil er sich immer nur 4096KB Blöcke schnappt und diese nach Gemeinsamheiten (z.B. gleiche Buchstaben) durchsucht. Wenn das Dateipaket größer ist als 4096KB, geht bereits etwas Effizienz drauf.

Wenn ich ne 4 GB Datei komprimiere, ist das sogar noch schneller, da kannst dir ja ausrechnen, wieviele 4096KB Blöcke er braucht anstatt ALLES in einem Durchlauf zu analysieren... wobei bei 4GB Dictionary bräuchte man wohl schon 64-256GB RAM. :)

Gast
2007-05-31, 14:47:42
argh. schneller=schlimmer.

Dann ergibts einen Sinn. :)

Gast
2007-05-31, 16:31:53
Hängt immer von der Dateiart ab...

Am obigen Beispiel ist schon erkennbar, das 4096KB eindeutig zu wenig sind :)Ist das eine Antwort auf diese Frage? Hast du beim Support jetzt angefragt?

(del)
2007-06-01, 00:30:21
Aktuelle deutsche Sprachdatei (4.47.0)
http://base91.sourceforge.net/j-o/

(del)
2007-06-01, 14:00:45
Sie sind wieder da! :D ;) Daher verabschiede ich mich für paar Tage (insider)

Hier noch "auf den Weg" die 7zFM.exe mit bissl humaneren Icons in der Toolbar und ein Reshacker Patch für bessere filetype Icons. Einfach drüberbügeln bzw. readme lesen.
http://tinyurl.com/2f3qvl

(Ja ich weiß. Doppelpost.)