rsync из размонтированного webdav источника

У меня есть белым маркированная, камера видеонаблюдения без клейма, которая выставляет все, что это - записи через webdav сервер. В течение прошлого месяца или таким образом, я монтировал диск с davfs2, но это не особенно изящное решение:

  • Список файлов должен быть повторно создан для каждого (cp или tar) команда, которая требует времени
  • cp кажется, замедляется немного после каждой последовательной передачи файлов
  • rsync --progress кажется, измеряет только локальную скорость передачи от временного файла до конечного места назначения

Я видел, что несколько человек используют rsync для резервного копирования к различным типам webdav базирующихся облачных серверов, но когда я пробую:

rsync -a admin@http://192.168.0.22/webdav/ /media/martin/internal-large/CCTV-TWO/

все, что я возвращаю, является ошибкой:

ssh: Could not resolve hostname http: Name or service not known

Существует ли способ сделать передачу этот окольный путь?

Редактирование из комментария: Я подозреваю, что мой вопрос был слишком плохо сформулирован, чтобы быть понятым. Во-первых webdav является источником. Во-вторых, если Вы просто используете IP-адрес затем rsync, предполагает, что Вы хотите SSH базирующаяся передача.

Если я даю команду: rsync --progress -a admin@192.168.0.24:/webdav /media/martin/internal-large/CCTV-TWO/

Я получаю следующие ошибки:

ssh: connect to host 192.168.0.24 port 22: Connection refused 
rsync: connection unexpectedly closed (0 bytes received so far)
[Receiver] rsync error: unexplained error (code 255) at io.c(226)
1
задан 13 March 2017 в 19:23

1 ответ

Как альтернатива rsync, один способ, которым Вы могли выполнить эту задачу, при помощи wget с-m (-зеркало) переключатель, который применяет-r (рекурсия),-N (соответствие меткам времени в удаленный файл) бесконечная глубина уровня, что Вы можете или не можете хотеть сокращать использование переключателя-l, и также применяется - no-remove-listing переключатель (опция передачи FTP, которую я не думаю вопросы при передаче через HTTP)

, Мы должны будем также быть нацелены на каталог для устройства хранения данных явно, чтобы не выводить все в каталог, в котором был запущен wget (поведение по умолчанию, как я вспоминаю)

, Мы можем сделать это с переключателем-P как в цели-P или - directory-prefix=target

, на который Вы также, вероятно, захотите постараться не подниматься выше исходного каталога, Вы нацелены с-np (-без родителей) на переключатель, который применяется:

Do not ever ascend to the parent directory when retrieving recursively.
This is a useful option, since it guarantees that only the files below 
a certain hierarchy will be downloaded.

можно указать учетные данные следующим образом:

--user=user
--password=password

 Specifies the username user and password password for both FTP and HTTP file retrieval.  These parameters can be overridden using the --ftp-user and
           --ftp-password options for FTP connections and the --http-user and --http-password options for HTTP connections.

Соединение всего этого, я заканчиваю с командой, которая похожа на это.

wget -m 192.168.0.22/webdav/ -np -P ./media/martin/internal-large/CCTV-TWO/

В Вашем случае Вы можете или не, вероятно, придется добавить - user=admin и - password=whateveritis переключатели.

могут быть другие полезные переключатели для Вашего конкретного варианта использования. Существует подробная страница справочника, доступная с командой man wget Один в особенности, Вы могли бы хотеть рассмотреть, --no-clobber, я включал выборку из страницы справочника ниже:

--no-clobber
           If a file is downloaded more than once in the same directory,
           Wget's behavior depends on a few options, including -nc.  In
           certain cases, the local file will be clobbered, or overwritten,
           upon repeated download.  In other cases it will be preserved.

           When running Wget without -N, -nc, -r, or -p, downloading the same
           file in the same directory will result in the original copy of file
           being preserved and the second copy being named file.1.  If that
           file is downloaded yet again, the third copy will be named file.2,
--
           Therefore, ""no-clobber"" is actually a misnomer in this
           mode---it's not clobbering that's prevented (as the numeric
           suffixes were already preventing clobbering), but rather the
           multiple version saving that's prevented.

           When running Wget with -r or -p, but without -N, -nd, or -nc, re-
           downloading a file will result in the new copy simply overwriting
           the old.  Adding -nc will prevent this behavior, instead causing
           the original version to be preserved and any newer copies on the
           server to be ignored.

Источники:

man wget

https://stackoverflow.com/questions/1078524/how-to-specify-the-location-with-wget

https://stackoverflow.com/questions/17282915/download-an-entire-directory-using-wget

1
ответ дан 7 December 2019 в 15:39

Другие вопросы по тегам:

Похожие вопросы: