Кто-нибудь здесь когда-либо ходил по пути использования размещенных сервисов, таких как AWS или Rackspace, для резервного копирования файлов вне сайта?
Думал об использовании настройки Duplicity на сервере и включении резервного копирования с использованием GnuPG для шифрования данных и SSH для подключения.
У кого-нибудь есть комментарии или лучшие идеи?
Спасибо сообществу
(Забыл упомянуть, что сервер будет экземпляром Ubuntu)
Да, идея здорова. Ободренный, даже. Это может стоить немного дороже, если вы держите несколько копий, а S3 (в качестве одного примера) сам по себе довольно дорогой по сравнению, например, с размещением микросервера HP в другом физическом месте. Взвесьте риск.
На месте хорошо , если между двумя копиями достаточно физического пространства, чтобы снизить потенциальный урон от огня. Если вы можете подтолкнуть это к безопасному, защищенному от наводнения флигелю, тем лучше.
И duplicity
уже могут обрабатывать множество бэкэндов (что подтверждается аргументом --help
):
Backends and their URL formats:
cf+http://container_name
file:///some_dir
ftp://user[:password]@other.host[:port]/some_dir
ftps://user[:password]@other.host[:port]/some_dir
hsi://user[:password]@other.host[:port]/some_dir
imap://user[:password]@other.host[:port]/some_dir
rsync://user[:password]@other.host[:port]::/module/some_dir
rsync://user[:password]@other.host[:port]/relative_path
rsync://user[:password]@other.host[:port]//absolute_path
s3://other.host/bucket_name[/prefix]
s3+http://bucket_name[/prefix]
scp://user[:password]@other.host[:port]/some_dir
ssh://user[:password]@other.host[:port]/some_dir
tahoe://alias/directory
webdav://user[:password]@other.host/some_dir
webdavs://user[:password]@other.host/some_dir
gdocs://user[:password]@other.host/some_dir