Поскольку время кажется для вас проблемой, другой подход состоит в том, чтобы использовать команду split, чтобы разбить большой файл на более мелкие части, например split -b 1024m BIGFILE PIECES, чтобы создать 1 GByte-фрагменты с именем PIECESaa PIECESab ... PIECESzz [ ! d0]
Как только они создаются, вы будете использовать что-то вроде cat PIECES?? >/some/where/else/BIGFILE для восстановления BIGFILE или, опять же, из-за вашего времени:
mkdir done
>/somewhere/else/BIGFILE
for piece in PIECES??
do
cat $piece >>/some/where/else/BIGFILE
status=$?
if [[ $status -eq 0 ]]
then
mv $piece done
fi
done
Если «копия» не удалась, вы можете перемещаться файлы с ./done назад. и повторите попытку, как только проблема времени будет решена. - Смотрите это как альтернативу, когда wget невозможно. Это то, что я использовал в течение многих лет при копировании в удаленное место, и что-то вроде «простой ftp» является единственным возможным транспортом - для кусков.