Со ссылкой от этого я пытался загрузить весь учебный веб-сайт с https://www.guru99.com/, таким образом, я пытался выполнить следующие команды без любого успеха
wget -r --mirror -p --convert-links -P . https://www.guru99.com
wget -r https://www.guru99.com
wget -r -l 0 https://www.guru99.com
Возврат из терминальной консоли как ниже
--2019-04-17 08:33:48-- https://www.guru99.com/
Resolving www.guru99.com (www.guru99.com)... 72.52.251.71
Connecting to www.guru99.com (www.guru99.com)|72.52.251.71|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘www.guru99.com/index.html’
www.guru99.com/index.html [ <=> ] 13.31K 43.4KB/s in 0.3s
2019-04-17 08:33:50 (43.4 KB/s) - ‘www.guru99.com/index.html’ saved [13633]
FINISHED --2019-04-17 08:33:50--
Total wall clock time: 1.7s
Downloaded: 1 files, 13K in 0.3s (43.4 KB/s)
И загруженный файл имеет только index.html. Какова проблема с этим, как я могу загрузить этот веб-сайт для офлайн?Спасибо.
Можно попытаться выполнить в этом значительно ниже:
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains guru99.com \
--no-parent \
www.guru99.com/index.html
Ссылка: https://www.linuxjournal.com/content/downloading-entire-web-site-wget
Программа «httrack» сделает именно то, что вы ищете. Для получения дополнительной информации перейдите на Ubuntu httrack.
Установите с помощью: sudo apt install httrack
и запустите его, введя httrack
в свой терминал.
Для этого конкретного сайта, это займет очень много времени и не показывает каких-либо признаков прогресса. Будьте терпеливы;)