Как архивировать папку с большим количеством дубликатов файлов внутри с максимально возможным уровнем сжатия?

Я знаю, что использование tar с-J опцией позволяет сжать папку с высоким уровнем сжатия, заканчивающегося tar.xz файл.

У меня есть папка, содержащая несколько резервных копий моей рабочей области, каждые из которых содержащий много библиотек (.so и.a, и т.д.), которые обычно являются, но не всегда, те же файлы foreach резервное копирование (дублированные файлы).

Существует ли метод, который может сжать мою папку резервных копий, рассмотрев то, что существует много дубликатов файлов там и поэтому приводит к высшему уровню сжатия? Передача-J опция смолить команду делают задание?

Я не хочу заботиться о дубликатах файлов в каждой папке все время. Существует ли умный инструмент, который рассматривает все дубликаты файлов, поскольку один файл затем сжимает это? В противном случае, каковы лучший инструмент и опция сжать такую папку?

1
задан 8 September 2016 в 19:04

1 ответ

Вы, вероятно, хотите исключить все резервные копии полностью.

Иначе, все, что производит солидный архив, должно обработать дубликаты файлов вполне эффективно, так tar + *, cpio + *, с 7 zip (с "твердой" опцией), RAR (с "твердой" опцией) или набор других, но не ZIP.

можно легко протестировать это путем сравнения размера архива точно с одним случайным файлом в архив с двумя копиями того же самого файла.

0
ответ дан 8 December 2019 в 08:59

Другие вопросы по тегам:

Похожие вопросы: