Мне нужно загрузить файл размером примерно в GB к онлайн-серверу, чтобы добраться до друга. Теперь, похоже, проблема связана с моим подключением к Интернету, потому что, если я попытаюсь загрузить файл более 20 МБ, он просто перестанет загружаться и не будет запускаться по какой-то причине.
Поэтому мне бы хотелось, чтобы приложение или сценариев (может потребоваться два, один из которых создает файлы, и тот, который их реконструирует), который может сделать следующее:
Разделить файл на более мелкие файлы, где max размер для каждого файла может быть установлен пользователем, так что это можно использовать для других случаев. Можно восстановить файл на другом конце и проверить целостность, проверив его SHA512SUM. Я бы предпочел, чтобы он не сжимал что-нибудь. Я запускаю Ubuntu GNOME 16.04.1 с GNOME 3.20. Есть ли способ сделать это?
Ознакомьтесь с предлагаемыми ответами перед публикацией. Первый предложенный ответ: Разделить большой файл на более мелкие файлы и затем интегрировать их для получения исходного файла
И здесь команды
split -b 20M -d bigfile bigfile-part
cat bigfile-part* > bigfile
Edit: [!d3 ]
... и для части hashsum вы можете сгенерировать файл контрольной суммы SHA512 из исходного («большого») файла:
sha512sum bigfile > sha512.txt
После того, как все мелкие части снова соединились, проверьте снова с новым файлом и сравните значения.