Резервное копирование вне сайта в VPS / Amazon Web Services / Rackspace

Кто-нибудь здесь когда-либо ходил по пути использования размещенных сервисов, таких как AWS или Rackspace, для резервного копирования файлов вне сайта?

Думал об использовании настройки Duplicity на сервере и включении резервного копирования с использованием GnuPG для шифрования данных и SSH для подключения.

У кого-нибудь есть комментарии или лучшие идеи?

Спасибо сообществу

(Забыл упомянуть, что сервер будет экземпляром Ubuntu)

0
задан 20 February 2014 в 14:45

1 ответ

Да, идея здорова. Ободренный, даже. Это может стоить немного дороже, если вы держите несколько копий, а S3 (в качестве одного примера) сам по себе довольно дорогой по сравнению, например, с размещением микросервера HP в другом физическом месте. Взвесьте риск.

На месте хорошо , если между двумя копиями достаточно физического пространства, чтобы снизить потенциальный урон от огня. Если вы можете подтолкнуть это к безопасному, защищенному от наводнения флигелю, тем лучше.

И duplicity уже могут обрабатывать множество бэкэндов (что подтверждается аргументом --help):

Backends and their URL formats:
  cf+http://container_name
  file:///some_dir
  ftp://user[:password]@other.host[:port]/some_dir
  ftps://user[:password]@other.host[:port]/some_dir
  hsi://user[:password]@other.host[:port]/some_dir
  imap://user[:password]@other.host[:port]/some_dir
  rsync://user[:password]@other.host[:port]::/module/some_dir
  rsync://user[:password]@other.host[:port]/relative_path
  rsync://user[:password]@other.host[:port]//absolute_path
  s3://other.host/bucket_name[/prefix]
  s3+http://bucket_name[/prefix]
  scp://user[:password]@other.host[:port]/some_dir
  ssh://user[:password]@other.host[:port]/some_dir
  tahoe://alias/directory
  webdav://user[:password]@other.host/some_dir
  webdavs://user[:password]@other.host/some_dir
  gdocs://user[:password]@other.host/some_dir
0
ответ дан 20 February 2014 в 14:45

Другие вопросы по тегам:

Похожие вопросы: