Резервное копирование определенного каталога с его содержимым в удаленное местоположение

Я запускаю Ubuntu 17.04, размещенный на ovh и доступ к удаленно через PuTTy (только Terminal, NO GUI).

Мое намерение заключается в резервном копировании одного каталога, содержащего работающий сервер, со всеми его суб-файлы / каталоги в удаленном месте, где будут храниться различные резервные копии (до предела).

Как часто ?: по крайней мере каждые 24 часа. Удаленно, где ?: Не уверен, Некоторые внешние службы, такие как Google Диск. Это может зависеть от того, как это делается. Бесплатно + Больше места лучше. Процессы восстановления не нужны, все, что мне нужно, - это отправка этого каталога в удаленное место, где впоследствии его можно вручную осмотреть / восстановить в случае любого повреждения основной ОС или файлов. Мне не нужно делать резервную копию всей системы, только этого каталога и его содержимого.

Что я уже проверил:

Как часто ?: по крайней мере каждые 24 часа. Некоторые из программ, перечисленных в этом руководстве, и другие руководства, которые Я не был полностью убежден.

Могу ли я получить совет относительно того, как это сделать? Я за неделю добрался до ubuntu. Благодаря! Любая дополнительная информация, которую я с удовольствием предоставит.

0
задан 4 July 2017 в 20:05

2 ответа

Чтобы удаленно использовать Google Диск из командной строки, вы можете использовать REST API с помощью команды curl.

tar и zip свой каталог следующим образом:

tar -jcf backup.tar.bz2 <directory>

отправьте его на Google Диск с помощью

curl -d @backup.tar.bz2 https://www.googleapis.com/upload/drive/v2/files --header "Content-Type:application/x-tar"

. Для этого вам нужен токен авторизации - прочитайте об этом в REST API .

You необходимо изменить пример curl выше с помощью аутентификации.

Как только это будет сделано, и вы протестировали его, поместите его в скрипт. Как только это будет сделано, для его периодического запуска используйте crontab. Проверьте с помощью

man crontab

, затем отредактируйте запись crontab с помощью

crontab -e
0
ответ дан 18 July 2018 в 10:44

Чтобы удаленно использовать Google Диск из командной строки, вы можете использовать REST API с помощью команды curl.

tar и zip свою директорию следующим образом:

tar -jcf backup.tar.bz2 <directory>

отправьте его на Google Диск с помощью

curl -d @backup.tar.bz2 https://www.googleapis.com/upload/drive/v2/files --header "Content-Type:application/x-tar"

. Для этого вам нужен токен авторизации - прочитайте об этом в REST API .

You необходимо изменить пример curl выше с помощью аутентификации.

Как только это будет сделано, и вы протестировали его, поместите его в скрипт. Как только это будет сделано, для его периодического запуска используйте crontab. Проверьте с помощью

man crontab

, затем отредактируйте запись crontab с помощью

crontab -e
0
ответ дан 24 July 2018 в 19:38
  • 1
    Спасибо за информацию Bex! Однако, увидев эту команду, я задаюсь вопросом о некоторых вещах, таких как: - Где я могу получить точные параметры для «user & quot;», «host») и "каталог" с моей учетной записи Google Диска? - Как я могу запланировать выполнение этой команды каждые 24 часа и все еще являюсь тем конкретным файлом? - Нужна ли эта конечная точка в команде? Тем не менее я попытаюсь понять, о чем говорит мне документация man rsync. – Mithrandir 4 July 2017 в 18:58
  • 2
    @Mithrandir Я не могу найти ссылку на Google Drive в вопросе. Вы хотите сделать резервную копию содержимого, хранящегося на Google Диске, или вы хотите сохранить там резервную копию? – Bex 4 July 2017 в 20:16
  • 3
    Я хочу отправить копию каталога там (Preferredly) каждые 24 часа. Каждая ежедневная копия должна просто храниться там, если возможно, до предела, после чего последняя будет удалена с помощью новейшей резервной копии. – Mithrandir 4 July 2017 в 20:26
  • 4
    Хорошо, это звучит многообещающе. Однако я не могу просто заархивировать основной файл, потому что в нем есть сервер. Мне нужно скопировать каталог локально где-то в другом месте, затем закрепить его, а затем отправить. Но мне также нужно удалить локально заархивированный файл только после его отправки (так что локальные файлы на молнии не накапливаются), мне интересно, могу ли я сделать сценарий до тех пор, пока он не был отправлен, а затем удалит его ... Я думаю, Мне придется изучить некоторые сценарии. Похоже, для новичков, подобных мне, довольно сложная задача, но я сделаю все возможное, я расскажу вам, как это происходит. Hahaha – Mithrandir 4 July 2017 в 22:48
  • 5
    Я сделал некоторые успехи в этом: во-первых, я создал некоторые учетные данные в API-интерфейсе google и загрузил json-файл, который, как представляется, содержит некоторые материалы доступа (это то, что мне нужно?). Какую часть / часть его следует добавить в команду curl? Может ли zip-имя & quot; backup.tar.bz2 & quot; быть изменен? Или это конкретное имя требуется? Могу ли я генерировать zip в том же каталоге, что и файл, который я только что скопировал? Если я изменю этот каталог, должен ли я также указать полный путь после команды @ на curl? Много вопросов на самом деле, но мой опыт в этом - это 0. Я, по крайней мере, добрался до нуля. – Mithrandir 6 July 2017 в 23:20
  • 6
    @Mithrandir Очень хорошо, хорошо сделано до сих пор. У вас еще много вопросов, и это хорошо. Научитесь, насколько можете, а затем задайте им новые вопросы здесь, на сайте. Именно такой дух поддерживает этот сайт. – Bex 7 July 2017 в 10:17

Другие вопросы по тегам:

Похожие вопросы: