tar - zip - rar - ...
tar - zip - rar - ...
Es gibt ja die verschiedensten Kompressionsformate.
Allerdings hat sich in der Linuxwelt meines wissens nach tar und bz am meisten etabliert, wohingegen unter Windows oft rar und zip zum Einsatz kommen.
Mich würde jetzt interessieren, wo eigentlich die Vorteile von tar zu zip/rar liegen und warum man überhaupt .tar nochmal durch bz2 filtern lassen sollte?
kennt wer eine Seite, die die unterschiede der Kompressionsmethoden beschreibt?
Allerdings hat sich in der Linuxwelt meines wissens nach tar und bz am meisten etabliert, wohingegen unter Windows oft rar und zip zum Einsatz kommen.
Mich würde jetzt interessieren, wo eigentlich die Vorteile von tar zu zip/rar liegen und warum man überhaupt .tar nochmal durch bz2 filtern lassen sollte?
kennt wer eine Seite, die die unterschiede der Kompressionsmethoden beschreibt?
Re: tar - zip - rar - ...
weil die daten sonst unkomprimiert in einem archiv zusammengafasst werden..HELLinG3R hat geschrieben:warum man überhaupt .tar nochmal durch bz2 filtern lassen sollte?
[..] Linux is not a code base. Or a distro. Or a kernel. It's an attitude. And it's not about Open Source. It's about a bunch of people who still think vi is a good config UI. - Matt's reply on ESR's cups/ui rant
Re: tar - zip - rar - ...
tar/bz2 ist meistens besser komprimiert; aber der Hauptgrund dürfte sein, dass:HELLinG3R hat geschrieben:Mich würde jetzt interessieren, wo eigentlich die Vorteile von tar zu zip/rar liegen
1. RAR nicht frei ist
2. RAR und ZIP die Unixrechte nicht immer mitspeichern
wahnsinn, die redundanz in solchen threads ist ja nicht auszuhalten.. lest ihr auch manchmal was eure vorposter schreiben?
[..] Linux is not a code base. Or a distro. Or a kernel. It's an attitude. And it's not about Open Source. It's about a bunch of people who still think vi is a good config UI. - Matt's reply on ESR's cups/ui rant
tar fügt wie gesagt die Dateien nur zusammen. Da tar auch Header verwendet, wird das Teil erstmal größer.
ABER: Wenn man das jetzt durch einen Kompressor jagt (Z, gz oder bz2) dann hat man ein "solid archive" - das wird meist besser komprimiert, als der umgekehrte Weg (erst alle Dateien komprimieren und dann zusammenfassen). Diesen Weg geht z.B. das ZIP Format. Der Nachteil: Bei einer bescädigung im Archiv sind alle nachfolgenden Dateien betroffen - beim ZIP Format nur die aktuelle Datei.
Die Algorithmen von gz und zip sind an sonsten relativ ähnlich.
Welcher Algorithmus "besser" ist, hängt vom Einsatzzweck ab: bz2 liefert meist bessere Kompressionsraten, ist dafür aber wesentlich langsamer. Bei Audio-Dateien ist z.B. flac wesentlich besser als gz/bzip2, die eher bei Textdateien ihre Stärken ausspielen. Aus diesem Grund nutzen moderne Packer (wozu ich die Linux-Varianten eher nicht zähle) mehrere Formate in einer Datei - rar hat z.B. mit Version 3 wieder neue Algorithmen hinzugewonnen - die lassen sich mit dem aktuellen "unrar" aus Debian nicht entpacken (dafür braucht man dann unrar-nonfree).
Über die Algorithmen schweigen sich die Entwickler aus, da ja sonst jeder ziemlich einfach ein Konkurrenzprodukt entwickeln könnte. Zumindest die "simplen" Algorithmen, Huffman, LZW, LZ89, etc. sind aber öffentlich und bekannt.
ABER: Wenn man das jetzt durch einen Kompressor jagt (Z, gz oder bz2) dann hat man ein "solid archive" - das wird meist besser komprimiert, als der umgekehrte Weg (erst alle Dateien komprimieren und dann zusammenfassen). Diesen Weg geht z.B. das ZIP Format. Der Nachteil: Bei einer bescädigung im Archiv sind alle nachfolgenden Dateien betroffen - beim ZIP Format nur die aktuelle Datei.
Die Algorithmen von gz und zip sind an sonsten relativ ähnlich.
Welcher Algorithmus "besser" ist, hängt vom Einsatzzweck ab: bz2 liefert meist bessere Kompressionsraten, ist dafür aber wesentlich langsamer. Bei Audio-Dateien ist z.B. flac wesentlich besser als gz/bzip2, die eher bei Textdateien ihre Stärken ausspielen. Aus diesem Grund nutzen moderne Packer (wozu ich die Linux-Varianten eher nicht zähle) mehrere Formate in einer Datei - rar hat z.B. mit Version 3 wieder neue Algorithmen hinzugewonnen - die lassen sich mit dem aktuellen "unrar" aus Debian nicht entpacken (dafür braucht man dann unrar-nonfree).
Über die Algorithmen schweigen sich die Entwickler aus, da ja sonst jeder ziemlich einfach ein Konkurrenzprodukt entwickeln könnte. Zumindest die "simplen" Algorithmen, Huffman, LZW, LZ89, etc. sind aber öffentlich und bekannt.
- weedy
- Beiträge: 585
- Registriert: 02.11.2002 21:47:49
- Lizenz eigener Beiträge: GNU General Public License
-
Kontaktdaten:
Es gibt noch einen wesentlichen Unterschied, der noch nicht genannt wurde, oder den ich übersehen habe: das Tar-Format kann im ggs. zu rar/zip/arj/lha/... (a) Links (b) Nodes (c) named Pipes (d) Permissions (e) User/group-Owner der Files archivieren, was es geradezu für unixoide Betriebssysteme prädestiniert. Bei vielen anderen und besonders aus der Dos- /Windows-Welt kommenden Archivierern gehen diese Informationen verloren bzw können durch diese nicht bearbeitet werden. (Man stelle sich vor, Zip wölle /dev/zero archivieren. Tar könnte dies, Zip würde eine nicht enden wollende Datei erzeugen, da /dev/zero Nullen am laufenden Band liefert).
weedy.
weedy.
- penthesilea
- Beiträge: 147
- Registriert: 19.02.2003 23:51:24
- Wohnort: Ulm
ich habe heute unzip probiert und es hat wunderbar geklapt, damit kann man WinZip Dateien vom Windows öffnen. Cools tool und einfach in der bedinung.
einfacher geht es kaum :- )
gruss
b a r t
Code: Alles auswählen
unzip *.zip
gruss
b a r t
-
- Beiträge: 242
- Registriert: 03.01.2004 19:22:59
- Wohnort: Dresden
-
Kontaktdaten:
stammt von quarzsnoopy und wurde bei bsdforen.de gepostet.*.tar.gz oder *.tgz kennst Du sicher (kann auch WinZip auspacken), die sind mit "gzip" verpackt worden. "gzip" testet die Archifdatei nur am Anfang und entscheidet sich dann für ein Kompressionsverfahren, das bis zum Schluss nicht mehr gewechselt wird. Hat man ein Archiv mit verschiedenen Dateietypen (Text, Bilder, Binär...) dann kann "gzip" nicht sehr gut komprimieren.
Hierfür verwendet man "bzip2", das komprimiert Blockweise. Standartmässig werden 900kB grosse Blöcke getestet (Komprimierungsverfahren gewählt) und komprimiert. Dann kommt bei einem gemischten Archiv eine wesentlich kleinere Datei raus. Bei einem einheitlichen Archiv (z.B. nur Text und HTML) ist "gzip" besser, da jeder Block von "bzip2" einen eigenen Header braucht.
Soviel zum Unterschied zwischen "gzip" und "bzip2".
mfg
matze
- Ein weiser Mann widerspricht seiner Frau nicht. Er wartet bis sie es selbst tut. -