Проверьте правильность скопированных файлов

Исходя из того факта, что вы заплатили за это деньги, может быть хорошей идеей, чтобы он был близок к другим документам, которые вы обязательно позаботитесь, то есть в домашнем каталоге.

[ f1] не является широко известным местом, но он добавляется в PATH by bash, поэтому он выглядит довольно стандартным для меня.

13
задан 28 April 2011 в 14:33

42 ответа

Я использую hashdeep для проверки резервных копий / восстановления, а иногда и для проверки повреждения файловой системы в RAID.

Скорость зависит от того, какие хеш-функции вы используете (некоторые из них более интенсивные для CPU, чем другие) а также скорость чтения ваших дисков. В моей системе hashdeep можно обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.

Пример расчета счетных сумм и их хранения в файле:

cd my-data
hashdeep -rlc md5 . > ~/checksums.txt

Параметры:

r - рекурсивный l - использование относительных путей c - указать хеш-функцию . - рекурсивный запуск в текущем каталоге > - перенаправить вывод в указанный файл

См. hashdeep .

Пример проверки проверочных сумм и распечатки списка различий :

$ cd /mnt/my-backup
$ hashdeep -ravvl -k ~/checksums.txt .
hashdeep: Audit passed
          Files matched: 40914
Files partially matched: 0
            Files moved: 0
        New files found: 0
  Known files not found: 0

Параметры:

r - рекурсивный v - подробный (чтобы получить список несоответствий, несколько v s означает более подробный) l - использовать относительные пути

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшенным.

14
ответ дан 25 May 2018 в 21:51

Я использую hashdeep для проверки резервных копий / восстановления, а иногда и для проверки повреждения файловой системы в RAID.

Скорость зависит от того, какие хеш-функции вы используете (некоторые из них более интенсивные для CPU, чем другие) а также скорость чтения ваших дисков. В моей системе hashdeep можно обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.

Пример расчета счетных сумм и их хранения в файле:

cd my-data hashdeep -rlc md5 . > ~/checksums.txt

Параметры:

r - рекурсивный l - использование относительных путей c - указать хеш-функцию . - рекурсивный запуск в текущем каталоге > - перенаправить вывод в указанный файл

См. [D1] hashdeep .

Пример проверки проверочных сумм и распечатки списка различий :

$ cd /mnt/my-backup $ hashdeep -ravvl -k ~/checksums.txt . hashdeep: Audit passed Files matched: 40914 Files partially matched: 0 Files moved: 0 New files found: 0 Known files not found: 0

Параметры:

r - рекурсивный v - подробный (чтобы получить список несоответствий, несколько v s означает более подробный) l - использовать относительные пути

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшенным.

14
ответ дан 25 July 2018 в 22:08

Я использую hashdeep для проверки резервных копий / восстановления, а иногда и для проверки повреждения файловой системы в RAID.

Скорость зависит от того, какие хеш-функции вы используете (некоторые из них более интенсивные для CPU, чем другие) а также скорость чтения ваших дисков. В моей системе hashdeep можно обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.

Пример расчета счетных сумм и их хранения в файле:

cd my-data hashdeep -rlc md5 . > ~/checksums.txt

Параметры:

r - рекурсивный l - использование относительных путей c - указать хеш-функцию . - рекурсивный запуск в текущем каталоге > - перенаправить вывод в указанный файл

См. [D1] hashdeep .

Пример проверки проверочных сумм и распечатки списка различий :

$ cd /mnt/my-backup $ hashdeep -ravvl -k ~/checksums.txt . hashdeep: Audit passed Files matched: 40914 Files partially matched: 0 Files moved: 0 New files found: 0 Known files not found: 0

Параметры:

r - рекурсивный v - подробный (чтобы получить список несоответствий, несколько v s означает более подробный) l - использовать относительные пути

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшенным.

14
ответ дан 31 July 2018 в 10:42

Я использую hashdeep для проверки резервных копий / восстановления, а иногда и для проверки повреждения файловой системы в RAID.

Скорость зависит от того, какие хеш-функции вы используете (некоторые из них более интенсивные для CPU, чем другие) а также скорость чтения ваших дисков. В моей системе hashdeep можно обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.

Пример расчета счетных сумм и их хранения в файле:

cd my-data hashdeep -rlc md5 . > ~/checksums.txt

Параметры:

r - рекурсивный l - использование относительных путей c - указать хеш-функцию . - рекурсивный запуск в текущем каталоге > - перенаправить вывод в указанный файл

См. [D1] hashdeep .

Пример проверки проверочных сумм и распечатки списка различий :

$ cd /mnt/my-backup $ hashdeep -ravvl -k ~/checksums.txt . hashdeep: Audit passed Files matched: 40914 Files partially matched: 0 Files moved: 0 New files found: 0 Known files not found: 0

Параметры:

r - рекурсивный v - подробный (чтобы получить список несоответствий, несколько v s означает более подробный) l - использовать относительные пути

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшенным.

14
ответ дан 31 July 2018 в 11:46

Я использую hashdeep для проверки резервных копий / восстановления, а иногда и для проверки повреждения файловой системы в RAID.

Скорость зависит от того, какие хеш-функции вы используете (некоторые из них более интенсивные для CPU, чем другие) а также скорость чтения ваших дисков. В моей системе hashdeep можно обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.

Пример расчета счетных сумм и их хранения в файле:

cd my-data hashdeep -rlc md5 . > ~/checksums.txt

Параметры:

r - рекурсивный l - использование относительных путей c - указать хеш-функцию . - рекурсивный запуск в текущем каталоге > - перенаправить вывод в указанный файл

См. [D1] hashdeep .

Пример проверки проверочных сумм и распечатки списка различий :

$ cd /mnt/my-backup $ hashdeep -ravvl -k ~/checksums.txt . hashdeep: Audit passed Files matched: 40914 Files partially matched: 0 Files moved: 0 New files found: 0 Known files not found: 0

Параметры:

r - рекурсивный v - подробный (чтобы получить список несоответствий, несколько v s означает более подробный) l - использовать относительные пути

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшенным.

14
ответ дан 2 August 2018 в 03:38

Я использую hashdeep для проверки резервных копий / восстановления, а иногда и для проверки повреждения файловой системы в RAID.

Скорость зависит от того, какие хеш-функции вы используете (некоторые из них более интенсивные для CPU, чем другие) а также скорость чтения ваших дисков. В моей системе hashdeep можно обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.

Пример расчета счетных сумм и их хранения в файле:

cd my-data hashdeep -rlc md5 . > ~/checksums.txt

Параметры:

r - рекурсивный l - использование относительных путей c - указать хеш-функцию . - рекурсивный запуск в текущем каталоге > - перенаправить вывод в указанный файл

См. [D1] hashdeep .

Пример проверки проверочных сумм и распечатки списка различий :

$ cd /mnt/my-backup $ hashdeep -ravvl -k ~/checksums.txt . hashdeep: Audit passed Files matched: 40914 Files partially matched: 0 Files moved: 0 New files found: 0 Known files not found: 0

Параметры:

r - рекурсивный v - подробный (чтобы получить список несоответствий, несколько v s означает более подробный) l - использовать относительные пути

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшенным.

14
ответ дан 4 August 2018 в 19:40

Я использую hashdeep , чтобы проверить резервное копирование / восстановление, а иногда и проверять повреждение файловой системы в RAID.

Скорость зависит от того, какие хэш-функции вы используете (некоторые более интенсивны в работе процессора, чем другие), а также скорость чтения ваших дисков. В моей системе hashdeep может обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.


Пример расчета расчетных сумм и их хранения в файле :

  cd my-data hashdeep -rlc md5.  & GT;  ~ / checksums.txt  

Параметры:

  • r - рекурсивный
  • l [ ! d6] - использовать относительные пути
  • c - указать хэш-функцию
  • . - рекурсивный запуск в текущем каталоге
  • & gt; - перенаправить вывод в указанный файл

См. справочную страницу .


Пример проверки контрольных сумм и печати списка различий:

  $ cd / mnt / my-backup $ hashdeep -ravvl -k ~ / checksums.txt.  hashdeep: Аудит пройден Файлы сопоставлены: 40914 Файлы, частично совпадающие: 0 Передвинутые файлы: 0 Найденные файлы: 0 Известные файлы не найдены: 0  

Параметры:

  • a - аудит (сравните со списком известных контрольных сумм)
  • v - verbose (чтобы получить список несоответствий, несколько v s означает более подробный)
  • k - файл известных хэшей

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшен .

14
ответ дан 6 August 2018 в 03:45

Я использую hashdeep , чтобы проверить резервное копирование / восстановление, а иногда и проверять повреждение файловой системы в RAID.

Скорость зависит от того, какие хэш-функции вы используете (некоторые более интенсивны в работе процессора, чем другие), а также скорость чтения ваших дисков. В моей системе hashdeep может обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.


Пример расчета расчетных сумм и их хранения в файле :

  cd my-data hashdeep -rlc md5.  & GT;  ~ / checksums.txt  

Параметры:

  • r - рекурсивный
  • l [ ! d6] - использовать относительные пути
  • c - указать хэш-функцию
  • . - рекурсивный запуск в текущем каталоге
  • & gt; - перенаправить вывод в указанный файл

См. справочную страницу .


Пример проверки контрольных сумм и печати списка различий:

  $ cd / mnt / my-backup $ hashdeep -ravvl -k ~ / checksums.txt.  hashdeep: Аудит пройден Файлы сопоставлены: 40914 Файлы, частично совпадающие: 0 Передвинутые файлы: 0 Найденные файлы: 0 Известные файлы не найдены: 0  

Параметры:

  • a - аудит (сравните со списком известных контрольных сумм)
  • v - verbose (чтобы получить список несоответствий, несколько v s означает более подробный)
  • k - файл известных хэшей

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшен .

14
ответ дан 7 August 2018 в 21:40

Я использую hashdeep , чтобы проверить резервное копирование / восстановление, а иногда и проверять повреждение файловой системы в RAID.

Скорость зависит от того, какие хэш-функции вы используете (некоторые более интенсивны в работе процессора, чем другие), а также скорость чтения ваших дисков. В моей системе hashdeep может обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.


Пример расчета расчетных сумм и их хранения в файле :

  cd my-data hashdeep -rlc md5.  & GT;  ~ / checksums.txt  

Параметры:

  • r - рекурсивный
  • l [ ! d6] - использовать относительные пути
  • c - указать хэш-функцию
  • . - рекурсивный запуск в текущем каталоге
  • & gt; - перенаправить вывод в указанный файл

См. справочную страницу .


Пример проверки контрольных сумм и печати списка различий:

  $ cd / mnt / my-backup $ hashdeep -ravvl -k ~ / checksums.txt.  hashdeep: Аудит пройден Файлы сопоставлены: 40914 Файлы, частично совпадающие: 0 Передвинутые файлы: 0 Найденные файлы: 0 Известные файлы не найдены: 0  

Параметры:

  • a - аудит (сравните со списком известных контрольных сумм)
  • v - verbose (чтобы получить список несоответствий, несколько v s означает более подробный)
  • k - файл известных хэшей

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшен .

14
ответ дан 10 August 2018 в 09:54

Я использую hashdeep , чтобы проверить резервное копирование / восстановление, а иногда и проверять повреждение файловой системы в RAID.

Скорость зависит от того, какие хэш-функции вы используете (некоторые более интенсивны в работе процессора, чем другие), а также скорость чтения ваших дисков. В моей системе hashdeep может обрабатывать или проверять около 1 ТБ / час с скоростью чтения md5 и 300 Мбайт / с.


Пример расчета расчетных сумм и их хранения в файле :

  cd my-data hashdeep -rlc md5.  & GT;  ~ / checksums.txt  

Параметры:

  • r - рекурсивный
  • l [ ! d6] - использовать относительные пути
  • c - указать хэш-функцию
  • . - рекурсивный запуск в текущем каталоге
  • & gt; - перенаправить вывод в указанный файл

См. справочную страницу .


Пример проверки контрольных сумм и печати списка различий:

  $ cd / mnt / my-backup $ hashdeep -ravvl -k ~ / checksums.txt.  hashdeep: Аудит пройден Файлы сопоставлены: 40914 Файлы, частично совпадающие: 0 Передвинутые файлы: 0 Найденные файлы: 0 Известные файлы не найдены: 0  

Параметры:

  • a - аудит (сравните со списком известных контрольных сумм)
  • v - verbose (чтобы получить список несоответствий, несколько v s означает более подробный)
  • k - файл известных хэшей

Обратите внимание, что по состоянию на март 2016 года hashdeep оказывается заброшен .

14
ответ дан 13 August 2018 в 16:12

Это выглядит как идеальная задача для rsync. Rsync сравнивает и копирует diff.

Утилита rsync впервые появилась в моем сознании, когда я увидел ваш вопрос. Выполнение чего-то вроде ниже может быстро показать, какие файлы находятся в каталоге a, но не в b:

$ rsync -rcnv a/* b/

-r will recurse into the directories
-c will compare based on file checksum
-n will run it as a "dry run" and make no changes, but just print out the files 
   that would be updated
-v will print the output to stdout verbosely

Это хороший вариант, потому что вы можете сравнить содержимое файлов, а также сделать уверен, что они совпадают. Дельта-алгоритм rsync оптимизирован для этого типа использования. Затем, если вы хотите, чтобы b соответствовал содержимому a, вы можете просто удалить параметр -n для выполнения фактической синхронизации.

Некоторые связанные вопросы:

https://stackoverflow.com/questions/19396718/compare-files-in-two-directory-on-remote-server-using-unix https://unix.stackexchange.com/questions/57305/rsync-compare-directories
12
ответ дан 25 May 2018 в 21:51
  • 1
    rsync, безусловно, является инструментом для этой работы, но он не сравнивает и не копирует различия, как таковые. Он сравнивает файлы с использованием размеров и хэшей. – Justin Force 29 April 2011 в 00:18
  • 2
    @JustinForce Использование размера? Конечно, разный размер гарантирует, что файл не совсем то же самое, но rsync очень универсален, он может опционально доверять метаданным (например, время), чтобы не перечитывать все файлы. При копировании через сеть он вычисляет скользящий хеш, чтобы точно определить общие части, чтобы избежать их переноса, но на локальном диске по умолчанию хэши не играют эту роль (если они используются вообще). Вы даже можете попросить его уповать на то, что у более короткого адресата уже есть правильный контент и просто нужно добавить, хотя давайте останемся на тему. – Stéphane Gourichon 8 February 2016 в 01:03

Если приложения GUI были предложены в Инструменте сравнения файлов и каталогов? не делайте этого для вас, попробуйте diff -rq /path/to/one /path/to/other спокойно переписывать оба каталога, регистрируя только различия с экраном.

8
ответ дан 25 May 2018 в 21:51

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

http://dll.nu/md5i/ http: // www. unix.com/unix-desktop-dummies-questions-answers/156854-script-compare-md5.html

Если вы хотите что-то простое и быстрое (оно не будет работать в очень сложных сценариях), вы можете использовать Meld

sudo apt-get install meld
3
ответ дан 25 May 2018 в 21:51

В «если все было скопировано правильно», я использую модифицированный cp (или mv), который включает контрольную сумму (опционально хранящуюся в xattr, поэтому она должна быть рассчитана только один раз для источника) http: // sourceforge. нетто / проекты / crcsum /

0
ответ дан 25 May 2018 в 21:51
  • 1
    Хотя ваш ответ на 100% правильный, это также практически невозможно для начинающего пользователя. Поэтому, пожалуйста, отредактируйте свой ответ и включите инструкции по загрузке, компиляции, установке и удалению crccp в вашем ответе! ;-) Вы всегда можете оставить ссылку в нижней части своего ответа в качестве источника для своего материала ... – Fabby 5 February 2015 в 18:07

Если приложения GUI были предложены в Инструменте сравнения файлов и каталогов? не делайте этого для вас, попробуйте diff -rq /path/to/one /path/to/other спокойно переписывать оба каталога, регистрируя только различия с экраном.

8
ответ дан 25 July 2018 в 22:08
  • 1
    rsync, безусловно, является инструментом для этой работы, но он не сравнивает и не копирует различия, как таковые. Он сравнивает файлы с использованием размеров и хэшей. – Justin Force 29 April 2011 в 00:18
  • 2
    @JustinForce Использование размера? Конечно, разный размер гарантирует, что файл не совсем то же самое, но rsync очень универсален, он может опционально доверять метаданным (например, время), чтобы не перечитывать все файлы. При копировании через сеть он вычисляет скользящий хеш, чтобы точно определить общие части, чтобы избежать их переноса, но на локальном диске по умолчанию хэши не играют эту роль (если они используются вообще). Вы даже можете попросить его уповать на то, что у более короткого адресата уже есть правильный контент и просто нужно добавить, хотя давайте останемся на тему. – Stéphane Gourichon 8 February 2016 в 01:03

В «если все было скопировано правильно», я использую модифицированный cp (или mv), который включает контрольную сумму (опционально хранящуюся в xattr, поэтому она должна быть рассчитана только один раз для источника) http: // sourceforge. нетто / проекты / crcsum /

0
ответ дан 25 July 2018 в 22:08
  • 1
    Хотя ваш ответ на 100% правильный, это также практически невозможно для начинающего пользователя. Поэтому, пожалуйста, отредактируйте свой ответ и включите инструкции по загрузке, компиляции, установке и удалению crccp в вашем ответе! ;-) Вы всегда можете оставить ссылку в нижней части своего ответа в качестве источника для своего материала ... – Fabby 5 February 2015 в 18:07

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

http://dll.nu/md5i/ http: // www. unix.com/unix-desktop-dummies-questions-answers/156854-script-compare-md5.html

Если вы хотите что-то простое и быстрое (оно не будет работать в очень сложных сценариях), вы можете использовать Meld

sudo apt-get install meld
3
ответ дан 25 July 2018 в 22:08

Если приложения GUI были предложены в Инструменте сравнения файлов и каталогов? не делайте этого для вас, попробуйте diff -rq /path/to/one /path/to/other спокойно переписывать оба каталога, регистрируя только различия с экраном.

12
ответ дан 31 July 2018 в 10:42
  • 1
    rsync, безусловно, является инструментом для этой работы, но он не сравнивает и не копирует различия, как таковые. Он сравнивает файлы с использованием размеров и хэшей. – Justin Force 29 April 2011 в 00:18
  • 2
    @JustinForce Использование размера? Конечно, разный размер гарантирует, что файл не совсем то же самое, но rsync очень универсален, он может опционально доверять метаданным (например, время), чтобы не перечитывать все файлы. При копировании через сеть он вычисляет скользящий хеш, чтобы точно определить общие части, чтобы избежать их переноса, но на локальном диске по умолчанию хэши не играют эту роль (если они используются вообще). Вы даже можете попросить его уповать на то, что у более короткого адресата уже есть правильный контент и просто нужно добавить, хотя давайте останемся на тему. – Stéphane Gourichon 8 February 2016 в 01:03

В «если все было скопировано правильно», я использую модифицированный cp (или mv), который включает контрольную сумму (опционально хранящуюся в xattr, поэтому она должна быть рассчитана только один раз для источника) http: // sourceforge. нетто / проекты / crcsum /

0
ответ дан 31 July 2018 в 10:42
  • 1
    Хотя ваш ответ на 100% правильный, это также практически невозможно для начинающего пользователя. Поэтому, пожалуйста, отредактируйте свой ответ и включите инструкции по загрузке, компиляции, установке и удалению crccp в вашем ответе! ;-) Вы всегда можете оставить ссылку в нижней части своего ответа в качестве источника для своего материала ... – Fabby 5 February 2015 в 18:07

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

http://dll.nu/md5i/ http: // www. unix.com/unix-desktop-dummies-questions-answers/156854-script-compare-md5.html

Если вы хотите что-то простое и быстрое (оно не будет работать в очень сложных сценариях), вы можете использовать Meld

sudo apt-get install meld
3
ответ дан 31 July 2018 в 10:42

Если приложения GUI были предложены в Инструменте сравнения файлов и каталогов? не делайте этого для вас, попробуйте diff -rq /path/to/one /path/to/other спокойно переписывать оба каталога, регистрируя только различия с экраном.

12
ответ дан 31 July 2018 в 11:46
  • 1
    rsync, безусловно, является инструментом для этой работы, но он не сравнивает и не копирует различия, как таковые. Он сравнивает файлы с использованием размеров и хэшей. – Justin Force 29 April 2011 в 00:18
  • 2
    @JustinForce Использование размера? Конечно, разный размер гарантирует, что файл не совсем то же самое, но rsync очень универсален, он может опционально доверять метаданным (например, время), чтобы не перечитывать все файлы. При копировании через сеть он вычисляет скользящий хеш, чтобы точно определить общие части, чтобы избежать их переноса, но на локальном диске по умолчанию хэши не играют эту роль (если они используются вообще). Вы даже можете попросить его уповать на то, что у более короткого адресата уже есть правильный контент и просто нужно добавить, хотя давайте останемся на тему. – Stéphane Gourichon 8 February 2016 в 01:03

В «если все было скопировано правильно», я использую модифицированный cp (или mv), который включает контрольную сумму (опционально хранящуюся в xattr, поэтому она должна быть рассчитана только один раз для источника) http: // sourceforge. нетто / проекты / crcsum /

0
ответ дан 31 July 2018 в 11:46
  • 1
    Хотя ваш ответ на 100% правильный, это также практически невозможно для начинающего пользователя. Поэтому, пожалуйста, отредактируйте свой ответ и включите инструкции по загрузке, компиляции, установке и удалению crccp в вашем ответе! ;-) Вы всегда можете оставить ссылку в нижней части своего ответа в качестве источника для своего материала ... – Fabby 5 February 2015 в 18:07

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

http://dll.nu/md5i/ http: // www. unix.com/unix-desktop-dummies-questions-answers/156854-script-compare-md5.html

Если вы хотите что-то простое и быстрое (оно не будет работать в очень сложных сценариях), вы можете использовать Meld

sudo apt-get install meld
3
ответ дан 31 July 2018 в 11:46

Если приложения GUI были предложены в Инструменте сравнения файлов и каталогов? не делайте этого для вас, попробуйте diff -rq /path/to/one /path/to/other спокойно переписывать оба каталога, регистрируя только различия с экраном.

12
ответ дан 2 August 2018 в 03:38
  • 1
    rsync, безусловно, является инструментом для этой работы, но он не сравнивает и не копирует различия, как таковые. Он сравнивает файлы с использованием размеров и хэшей. – Justin Force 29 April 2011 в 00:18
  • 2
    @JustinForce Использование размера? Конечно, разный размер гарантирует, что файл не совсем то же самое, но rsync очень универсален, он может опционально доверять метаданным (например, время), чтобы не перечитывать все файлы. При копировании через сеть он вычисляет скользящий хеш, чтобы точно определить общие части, чтобы избежать их переноса, но на локальном диске по умолчанию хэши не играют эту роль (если они используются вообще). Вы даже можете попросить его уповать на то, что у более короткого адресата уже есть правильный контент и просто нужно добавить, хотя давайте останемся на тему. – Stéphane Gourichon 8 February 2016 в 01:03

В «если все было скопировано правильно», я использую модифицированный cp (или mv), который включает контрольную сумму (опционально хранящуюся в xattr, поэтому она должна быть рассчитана только один раз для источника) http: // sourceforge. нетто / проекты / crcsum /

0
ответ дан 2 August 2018 в 03:38
  • 1
    Хотя ваш ответ на 100% правильный, это также практически невозможно для начинающего пользователя. Поэтому, пожалуйста, отредактируйте свой ответ и включите инструкции по загрузке, компиляции, установке и удалению crccp в вашем ответе! ;-) Вы всегда можете оставить ссылку в нижней части своего ответа в качестве источника для своего материала ... – Fabby 5 February 2015 в 18:07

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

http://dll.nu/md5i/ http: // www. unix.com/unix-desktop-dummies-questions-answers/156854-script-compare-md5.html

Если вы хотите что-то простое и быстрое (оно не будет работать в очень сложных сценариях), вы можете использовать Meld

sudo apt-get install meld
3
ответ дан 2 August 2018 в 03:38

Если приложения GUI были предложены в Инструменте сравнения файлов и каталогов? не делайте этого для вас, попробуйте diff -rq /path/to/one /path/to/other спокойно переписывать оба каталога, регистрируя только различия с экраном.

13
ответ дан 4 August 2018 в 19:40
  • 1
    rsync, безусловно, является инструментом для этой работы, но он не сравнивает и не копирует различия, как таковые. Он сравнивает файлы с использованием размеров и хэшей. – Justin Force 29 April 2011 в 00:18
  • 2
    @JustinForce Использование размера? Конечно, разный размер гарантирует, что файл не совсем то же самое, но rsync очень универсален, он может опционально доверять метаданным (например, время), чтобы не перечитывать все файлы. При копировании через сеть он вычисляет скользящий хеш, чтобы точно определить общие части, чтобы избежать их переноса, но на локальном диске по умолчанию хэши не играют эту роль (если они используются вообще). Вы даже можете попросить его уповать на то, что у более короткого адресата уже есть правильный контент и просто нужно добавить, хотя давайте останемся на тему. – Stéphane Gourichon 8 February 2016 в 01:03

В «если все было скопировано правильно», я использую модифицированный cp (или mv), который включает контрольную сумму (опционально хранящуюся в xattr, поэтому она должна быть рассчитана только один раз для источника) http: // sourceforge. нетто / проекты / crcsum /

0
ответ дан 4 August 2018 в 19:40
  • 1
    Хотя ваш ответ на 100% правильный, это также практически невозможно для начинающего пользователя. Поэтому, пожалуйста, отредактируйте свой ответ и включите инструкции по загрузке, компиляции, установке и удалению crccp в вашем ответе! ;-) Вы всегда можете оставить ссылку в нижней части своего ответа в качестве источника для своего материала ... – Fabby 5 February 2015 в 18:07

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

http://dll.nu/md5i/ http: // www. unix.com/unix-desktop-dummies-questions-answers/156854-script-compare-md5.html

Если вы хотите что-то простое и быстрое (оно не будет работать в очень сложных сценариях), вы можете использовать Meld

sudo apt-get install meld
3
ответ дан 4 August 2018 в 19:40

Ситуация, о которой вы говорите, слишком сложна. Хотя вы можете написать сценарий для вычисления MD5 всех файлов, которые вы хотите скопировать, а затем сравнить их с скопированными:

Если вам нужно что-то простое и быстрое (это не сработает в очень сложных сценариях), вы можете использовать Meld

  sudo apt-get  установить meld  
3
ответ дан 6 August 2018 в 03:45

Другие вопросы по тегам:

Похожие вопросы: