Я использую wget для загрузки сайтов, но я бы хотел, чтобы они работали в автономном режиме. Если веб-сайт использует jQuery, например, из URL-адреса веб-сайта, он не будет работать в автономном режиме.
Есть ли способ автоматизировать процесс хранения таких вещей, как jQuery, локально? Я не хочу переживать неприятности, если делаю это каждый раз вручную.
Сам Wget способен на это:
wget -pk <URL>
-p
заставляет wget извлекать саму страницу, а также любые другие ресурсы, используемые страницей, такие как изображения, сценарии и таблицы стилей. Результат будет сохранен в новом каталоге, содержащем все загруженные файлы.
-k
заставляет wget переводить их URL-адреса, чтобы они работали локально.
Вышеприведенное извлекает только одну страницу вместе с ее ресурсами. Если вы хотите попытаться получить весь сайт, добавьте -r
:
wget -rpk <URL>
Однако, это сопровождается предупреждением:
Это может загрузить сотни, тысячи или еще много страниц, если страниц много. По умолчанию он использует глубину 5, которая, вероятно, достаточна для извлечения целого сайта, если внутренняя ссылка не является немного разреженной.
Это может заполнить ваш жесткий диск.
Это создает чрезмерную нагрузку на сервер, с которого вы скачиваете. Подумайте над тем, чтобы попросить разрешения.