Использование wget и правильное использование веб-сайтов в автономном режиме

Я использую wget для загрузки веб-сайтов, но я бы хотел, чтобы они нормально работали в автономном режиме. Если веб-сайт использует jQuery из URL-адреса веб-сайта, например, он не будет работать в автономном режиме.

Есть ли способ автоматизировать процесс получения таких вещей, как jQuery, хранящихся локально? Я не хочу беспокоиться, если каждый раз это делать вручную.

1
задан 24 November 2017 в 02:23

2 ответа

Сам Wget способен на это:

wget -pk <URL>

-p заставляет wget извлекать саму страницу, а также любые другие ресурсы, которые использует страница, например изображения, сценарии и таблицы стилей. Результат будет сохранен в новом каталоге, содержащем все загруженные файлы.

-k заставляет wget переводить URL-адреса этих файлов, чтобы они работали локально.

Вышеуказанное извлекает одну страницу вместе со своими ресурсами. Если вы хотите попробовать и получить весь сайт, добавьте -r:

wget -rpk <URL>

Однако это происходит с предупреждением:

Он может скачивать сотни, тысячи или много больше страниц, если есть много страниц. По умолчанию используется глубина 5, что, вероятно, достаточно для получения всего сайта, если внутренняя ссылка немного разрежена. Это может заполнить ваш жесткий диск. Он накладывает чрезмерную нагрузку на сервер, из которого вы загружаете. Попросите разрешения.
2
ответ дан 18 July 2018 в 02:43

Сам Wget способен на это:

wget -pk <URL>

-p заставляет wget извлекать саму страницу, а также любые другие ресурсы, которые использует страница, например изображения, сценарии и таблицы стилей. Результат будет сохранен в новом каталоге, содержащем все загруженные файлы.

-k заставляет wget переводить URL-адреса этих файлов, чтобы они работали локально.

Вышеуказанное извлекает одну страницу вместе со своими ресурсами. Если вы хотите попробовать и получить весь сайт, добавьте -r:

wget -rpk <URL>

Однако это происходит с предупреждением:

Он может скачивать сотни, тысячи или много больше страниц, если есть много страниц. По умолчанию используется глубина 5, что, вероятно, достаточно для получения всего сайта, если внутренняя ссылка немного разрежена. Это может заполнить ваш жесткий диск. Он накладывает чрезмерную нагрузку на сервер, из которого вы загружаете. Попросите разрешения.
2
ответ дан 24 July 2018 в 17:38
  • 1
    Я сделал это, но сценарий src & quot; все еще « code.jquery.com/jquery-3.2.1.js" ;. Что я делаю не так? – Nifel 24 November 2017 в 11:15
  • 2
    Любые ссылки на внешние сайты (сайты на разных хостах / доменах) не включены. Они должны работать отлично, если просматривать их локально, за исключением случаев, когда вы просматриваете устройство без доступа к Интернету, т.е. оно буквально отключено. – thomasrutter 24 November 2017 в 16:17
  • 3
    Проблема в том, что мне это нужно для автономного использования. Теперь мне нужно сохранить ссылку jQuery вручную в моем корне, а утомительная работа по изменению кода при наличии большого количества страниц. Думаю, wget не может это исправить? – Nifel 24 November 2017 в 19:34

Другие вопросы по тегам:

Похожие вопросы: