Время Gzip для распаковки?

Я хотел сделать резервную копию всего моего сервера, который размещен. Поэтому я использовал dd и gzip, чтобы сделать файл меньше. Диск был 500 ГБ, но с использованием менее 5%. Мне удалось dd весь раздел в 200 GB gzip-файл через Интернет в мой дом через 8 часов. Теперь я пытаюсь распаковать файл в раздел на новый диск. Это уже заняло более 8 часов, и, конечно, у меня нет способа определить прогресс.

  1. Сколько нужно времени для сжатия в сжатии?
  2. Я предполагаю локальный процессор является ключевым компонентом в определении того, сколько времени потребуется? (Вместо полосы пропускания сети)
  3. Есть ли способ увидеть прогресс?

Могу ли я сделать это в следующий раз?

1
задан 27 September 2011 в 01:16

16 ответов

Самый простой способ взглянуть на ход запущенного процесса gzip - просто посмотреть размер файла написанного файла, потенциально в сочетании с watch, если вы хотите обновлять в реальном времени. Если вы имеете дело с разделами, которые, конечно, нелегко.

Альтернативой оценке прогресса является использование iotop. iotop покажет вам скорость, с которой данные записываются на диск по каждому процессу в системе, ваш gzip процесс, скорее всего, появится вверху и даст вам количество обработанных данных в секунду. Затем просто умножьте MB / sec с тем, как долго выполнялся процесс (см. Столбец START ps auxw), и вы получите приблизительное представление о том, как долго это займет.

Что касается последующих прогонов резервного копирования: используйте rsync, когда вы хотите скопировать данные с одного компьютера в сети на другой. rsync обрабатывает сжатие и дельта, поэтому вам нужно только перенести данные, которые у вас еще нет, что делает его очень быстрым для регулярных обновлений. rsync также имеет опции --backup и --backup-dir, которые могут использоваться для создания не только копий, но и надлежащих резервных копий, которые отслеживают удаленные файлы.

И при выполнении diskimages partimage является хорошей альтернативой dd, так как в отличие от dd partimage известно файловой системе и будет копировать только блоки, фактически используемые файловой системой, а не пустые неиспользуемые блоков, таким образом, он может создавать гораздо меньшие образы дисков в большинстве пустых файловых систем. Но это не лучший инструмент для резервного копирования по сети, вместо этого используйте rsync.

0
ответ дан 25 July 2018 в 21:17

Обычно распаковка в gzip должна выполняться быстрее, чем сжатие. Я подозреваю, что проблема заключается в том, что целевой диск медленнее, чем диск, с которого он был сжат: или, возможно, вы читаете и записываете на тот же физический диск, который вызывает много поиска.

Другие ответы правильны, что обычно лучше создавать резервные копии файлов, а не сырое устройство.

Чтобы увидеть прогресс, я бы установил pv , а затем скажу что-то вроде этого :

zcat /tmp/myimg.gz |pv -s500G > /tmp/myimg
0
ответ дан 25 July 2018 в 21:17

Хост должен предоставить вам план резервного копирования и (наиболее предпочтительно) веб-интерфейс для средств резервного копирования и восстановления. Лучше было бы спросить их, разрешают ли они вам получить копию автоматизированной резервной копии.

0
ответ дан 2 August 2018 в 02:56

Обычно распаковка в gzip должна выполняться быстрее, чем сжатие. Я подозреваю, что проблема заключается в том, что целевой диск медленнее, чем диск, с которого он был сжат: или, возможно, вы читаете и записываете на тот же физический диск, который вызывает много поиска.

Другие ответы правильны, что обычно лучше создавать резервные копии файлов, а не сырое устройство.

Чтобы увидеть прогресс, я бы установил pv , а затем скажу что-то вроде этого :

zcat /tmp/myimg.gz |pv -s500G > /tmp/myimg
0
ответ дан 2 August 2018 в 02:56

Вот статья, которую я видел с некоторыми бенчмарками для gzip и некоторых других алгоритмов сжатия: http://tukaani.org/lzma/benchmarks.html . Я бы предположил, что время декомпрессии зависит от скорости вашего процессора. Кроме того, если вы просматриваете тесты, кажется, что декомпрессия почти всегда быстрее сжатия.

Изменить:

В ответ на ваш последний вопрос о других способах резервного копирования вашего сервера , Я нашел эту статью, которая рассказывает о различных методах резервного копирования: http://www.techrepublic.com/blog/10things/10-outstanding-linux-backup-utilities/895 . Я не уверен, какой доступ у вас есть к серверу, но если это обычный коммерческий хост, вы можете попросить техническую поддержку, как вы должны это делать.

2
ответ дан 2 August 2018 в 02:56

Вот статья, которую я видел с некоторыми бенчмарками для gzip и некоторых других алгоритмов сжатия: http://tukaani.org/lzma/benchmarks.html . Я бы предположил, что время декомпрессии зависит от скорости вашего процессора. Кроме того, если вы просматриваете тесты, кажется, что декомпрессия почти всегда быстрее сжатия.

Изменить:

В ответ на ваш последний вопрос о других способах резервного копирования вашего сервера , Я нашел эту статью, которая рассказывает о различных методах резервного копирования: http://www.techrepublic.com/blog/10things/10-outstanding-linux-backup-utilities/895 . Я не уверен, какой доступ у вас есть к серверу, но если это обычный коммерческий хост, вы можете попросить техническую поддержку, как вы должны это делать.

2
ответ дан 4 August 2018 в 18:46

Вот статья, которую я видел с некоторыми бенчмарками для gzip и некоторых других алгоритмов сжатия: http://tukaani.org/lzma/benchmarks.html . Я бы предположил, что время декомпрессии зависит от скорости вашего процессора. Кроме того, если вы просматриваете тесты, кажется, что декомпрессия почти всегда быстрее сжатия.

Изменить:

В ответ на ваш последний вопрос о других способах резервного копирования вашего сервера , Я нашел эту статью, которая рассказывает о различных методах резервного копирования: http://www.techrepublic.com/blog/10things/10-outstanding-linux-backup-utilities/895 . Я не уверен, какой доступ у вас есть к серверу, но если это обычный коммерческий хост, вы можете попросить техническую поддержку, как вы должны это делать.

2
ответ дан 6 August 2018 в 03:09

Обычно распаковка в gzip должна выполняться быстрее, чем сжатие. Я подозреваю, что проблема заключается в том, что целевой диск медленнее, чем диск, с которого он был сжат: или, возможно, вы читаете и записываете на тот же физический диск, который вызывает много поиска.

Другие ответы правильны, что обычно лучше создавать резервные копии файлов, а не сырое устройство.

Чтобы увидеть прогресс, я бы установил pv , а затем скажу что-то вроде этого :

zcat /tmp/myimg.gz |pv -s500G > /tmp/myimg
0
ответ дан 6 August 2018 в 03:09

Вы не хотите, чтобы (ab) использовал dd. Он будет тратить время на копирование 95% диска, который не используется, и вы получите поврежденное изображение, если в это время он установил чтение / запись. Если вы хотите создать резервную копию системы, лучше всего отключить все службы, которые можно записать на диск, и использовать tar.

1
ответ дан 6 August 2018 в 03:09

Хост должен предоставить вам план резервного копирования и (наиболее предпочтительно) веб-интерфейс для средств резервного копирования и восстановления. Лучше было бы спросить их, разрешают ли они вам получить копию автоматизированной резервной копии.

0
ответ дан 7 August 2018 в 20:51

Самый простой способ взглянуть на ход запущенного процесса gzip - просто посмотреть размер файла написанного файла, потенциально в сочетании с watch, если вы хотите обновлять в реальном времени. Если вы имеете дело с разделами, которые, конечно, нелегко.

Альтернативой оценке прогресса является использование iotop. iotop покажет вам скорость, с которой данные записываются на диск по каждому процессу в системе, ваш gzip процесс, скорее всего, появится вверху и даст вам количество обработанных данных в секунду. Затем просто умножьте MB / sec с тем, как долго выполнялся процесс (см. Столбец START ps auxw), и вы получите приблизительное представление о том, как долго это займет.

Что касается последующих прогонов резервного копирования: используйте rsync, когда вы хотите скопировать данные с одного компьютера в сети на другой. rsync обрабатывает сжатие и дельта, поэтому вам нужно только перенести данные, которые у вас еще нет, что делает его очень быстрым для регулярных обновлений. rsync также имеет опции --backup и --backup-dir, которые могут использоваться для создания не только копий, но и надлежащих резервных копий, которые отслеживают удаленные файлы.

И при выполнении diskimages partimage является хорошей альтернативой dd, так как в отличие от dd partimage известно файловой системе и будет копировать только блоки, фактически используемые файловой системой, а не пустые неиспользуемые блоков, таким образом, он может создавать гораздо меньшие образы дисков в большинстве пустых файловых систем. Но это не лучший инструмент для резервного копирования по сети, вместо этого используйте rsync.

0
ответ дан 7 August 2018 в 20:51

Вы не хотите, чтобы (ab) использовал dd. Он будет тратить время на копирование 95% диска, который не используется, и вы получите поврежденное изображение, если в это время он установил чтение / запись. Если вы хотите создать резервную копию системы, лучше всего отключить все службы, которые можно записать на диск, и использовать tar.

1
ответ дан 7 August 2018 в 20:51

Вот статья, которую я видел с некоторыми бенчмарками для gzip и некоторых других алгоритмов сжатия: http://tukaani.org/lzma/benchmarks.html . Я бы предположил, что время декомпрессии зависит от скорости вашего процессора. Кроме того, если вы просматриваете тесты, кажется, что декомпрессия почти всегда быстрее сжатия.

Изменить:

В ответ на ваш последний вопрос о других способах резервного копирования вашего сервера , Я нашел эту статью, которая рассказывает о различных методах резервного копирования: http://www.techrepublic.com/blog/10things/10-outstanding-linux-backup-utilities/895 . Я не уверен, какой доступ у вас есть к серверу, но если это обычный коммерческий хост, вы можете попросить техническую поддержку, как вы должны это делать.

2
ответ дан 10 August 2018 в 09:12

Хост должен предоставить вам план резервного копирования и (наиболее предпочтительно) веб-интерфейс для средств резервного копирования и восстановления. Лучше было бы спросить их, разрешают ли они вам получить копию автоматизированной резервной копии.

0
ответ дан 10 August 2018 в 09:12

Вот статья, которую я видел с некоторыми бенчмарками для gzip и некоторых других алгоритмов сжатия: http://tukaani.org/lzma/benchmarks.html . Я бы предположил, что время декомпрессии зависит от скорости вашего процессора. Кроме того, если вы просматриваете тесты, кажется, что декомпрессия почти всегда быстрее сжатия.

Изменить:

В ответ на ваш последний вопрос о других способах резервного копирования вашего сервера , Я нашел эту статью, которая рассказывает о различных методах резервного копирования: http://www.techrepublic.com/blog/10things/10-outstanding-linux-backup-utilities/895 . Я не уверен, какой доступ у вас есть к серверу, но если это обычный коммерческий хост, вы можете попросить техническую поддержку, как вы должны это делать.

2
ответ дан 13 August 2018 в 12:36

Хост должен предоставить вам план резервного копирования и (наиболее предпочтительно) веб-интерфейс для средств резервного копирования и восстановления. Лучше было бы спросить их, разрешают ли они вам получить копию автоматизированной резервной копии.

0
ответ дан 13 August 2018 в 12:36

Другие вопросы по тегам:

Похожие вопросы: