У меня есть белым маркированная, камера видеонаблюдения без клейма, которая выставляет все, что это - записи через webdav сервер. В течение прошлого месяца или таким образом, я монтировал диск с davfs2
, но это не особенно изящное решение:
cp
или tar
) команда, которая требует времениcp
кажется, замедляется немного после каждой последовательной передачи файлов rsync --progress
кажется, измеряет только локальную скорость передачи от временного файла до конечного места назначенияЯ видел, что несколько человек используют rsync
для резервного копирования к различным типам webdav базирующихся облачных серверов, но когда я пробую:
rsync -a admin@http://192.168.0.22/webdav/ /media/martin/internal-large/CCTV-TWO/
все, что я возвращаю, является ошибкой:
ssh: Could not resolve hostname http: Name or service not known
Существует ли способ сделать передачу этот окольный путь?
Редактирование из комментария: Я подозреваю, что мой вопрос был слишком плохо сформулирован, чтобы быть понятым. Во-первых webdav является источником. Во-вторых, если Вы просто используете IP-адрес затем rsync, предполагает, что Вы хотите SSH базирующаяся передача.
Если я даю команду: rsync --progress -a admin@192.168.0.24:/webdav /media/martin/internal-large/CCTV-TWO/
Я получаю следующие ошибки:
ssh: connect to host 192.168.0.24 port 22: Connection refused
rsync: connection unexpectedly closed (0 bytes received so far)
[Receiver] rsync error: unexplained error (code 255) at io.c(226)
Как альтернатива rsync, один способ, которым Вы могли выполнить эту задачу, при помощи wget
с-m (-зеркало) переключатель, который применяет-r (рекурсия),-N (соответствие меткам времени в удаленный файл) бесконечная глубина уровня, что Вы можете или не можете хотеть сокращать использование переключателя-l, и также применяется - no-remove-listing переключатель (опция передачи FTP, которую я не думаю вопросы при передаче через HTTP)
, Мы должны будем также быть нацелены на каталог для устройства хранения данных явно, чтобы не выводить все в каталог, в котором был запущен wget (поведение по умолчанию, как я вспоминаю)
, Мы можем сделать это с переключателем-P как в цели-P или - directory-prefix=target
, на который Вы также, вероятно, захотите постараться не подниматься выше исходного каталога, Вы нацелены с-np (-без родителей) на переключатель, который применяется:
Do not ever ascend to the parent directory when retrieving recursively.
This is a useful option, since it guarantees that only the files below
a certain hierarchy will be downloaded.
можно указать учетные данные следующим образом:
--user=user
--password=password
Specifies the username user and password password for both FTP and HTTP file retrieval. These parameters can be overridden using the --ftp-user and
--ftp-password options for FTP connections and the --http-user and --http-password options for HTTP connections.
Соединение всего этого, я заканчиваю с командой, которая похожа на это.
wget -m 192.168.0.22/webdav/ -np -P ./media/martin/internal-large/CCTV-TWO/
В Вашем случае Вы можете или не, вероятно, придется добавить - user=admin и - password=whateveritis переключатели.
могут быть другие полезные переключатели для Вашего конкретного варианта использования. Существует подробная страница справочника, доступная с командой man wget
Один в особенности, Вы могли бы хотеть рассмотреть, --no-clobber
, я включал выборку из страницы справочника ниже:
--no-clobber
If a file is downloaded more than once in the same directory,
Wget's behavior depends on a few options, including -nc. In
certain cases, the local file will be clobbered, or overwritten,
upon repeated download. In other cases it will be preserved.
When running Wget without -N, -nc, -r, or -p, downloading the same
file in the same directory will result in the original copy of file
being preserved and the second copy being named file.1. If that
file is downloaded yet again, the third copy will be named file.2,
--
Therefore, ""no-clobber"" is actually a misnomer in this
mode---it's not clobbering that's prevented (as the numeric
suffixes were already preventing clobbering), but rather the
multiple version saving that's prevented.
When running Wget with -r or -p, but without -N, -nd, or -nc, re-
downloading a file will result in the new copy simply overwriting
the old. Adding -nc will prevent this behavior, instead causing
the original version to be preserved and any newer copies on the
server to be ignored.
Источники:
man wget
https://stackoverflow.com/questions/1078524/how-to-specify-the-location-with-wget
https://stackoverflow.com/questions/17282915/download-an-entire-directory-using-wget