У меня есть приблизительно 800 ГБ файлов в сотнях подпапок на компьютере с облупленным интернет-соединением. Каждый файл примерно 4-8MB в размере. Я хотел бы Синхронизировать их к облаку как решение для резервного копирования.
Вот проблемы к настоящему времени:
Короче говоря, кто-либо нашел легкое решение нажимать-и-забывать для резервного копирования (односторонняя синхронизация) значительным объемом данных к облаку?
Используя несколько разновидностей Linux много лет и подобного числа поставщиков облачного хранилища (Dropbox, onedrive, gdrive, и т.д.), я также много раз сталкивался с этим и пробовал почти все решения. Я предложил бы, чтобы Вы дали Insync другую попытку, возможно, в более безопасной среде. Я использовал его в течение приблизительно трех лет в этой точке, и это стало главным продуктом для меня, поскольку они улучшили gui/reliability/support.
Insync работал хорошо на меня потому что:
В Вашем конкретном случае из-за большой суммы файлов Вы хотите загрузить сразу и пятнистое интернет-соединение, я предложил бы, чтобы Вы загрузили пакеты файлов за один раз посредством выбора определенных файлов, чтобы включать в синхронизацию через gui и добавить другие файлы, которые будут контролироваться, поскольку они заканчивают. Я на самом деле предложил бы этот метод, независимо от которого метода Вы приняли решение пойти. Также всегда сохраняйте резервное копирование своих файлов прежде, чем загрузить на любое 'облако'.
Удачи.
По-моему, лучшим является SpiderOak. Иногда у них есть выгодные предложения, где они предлагают неограниченное резервное копирование, но честно 2 - 5 ТБ, вероятно, больше затем, в чем Вы нуждаетесь.
Можно буквально резервировать весь диск и забыть это, и безопасность высока. https://spideroak.com/one/
Я уверен, что другие существуют, но полировка на этом является высшим качеством. Если у Вас есть маленький основной диск OS, просто не забывают перемещать Ваш кэш-диск в больший диск.