Я использую эту команду:
wget -nd -e robots=off --wait 0.25 -r -A.pdf http://yourWebsite.net/
, но я не могу получить PDF-файлы с сайта.
Например, у меня есть корневое доменное имя:
www.example.com
, и на этом сайте есть файлы PDF, DOC, HTML и т. д. Я хочу загрузить все PDF-файлы, вставив только имя домена root, а не точный адрес страницы загрузки.
В случае, если выше не работает, попробуйте это: (замените URL)
lynx -listonly -dump http://www.philipkdickfans.com/resources/journals/pkd-otaku/ | grep pdf | awk '/^[ ]*[1-9][0-9]*\./{sub("^ [^.]*.[ ]*","",$0); print;}' | xargs -L1 -I {} wget {}
вам может потребоваться установить lynx:
sudo apt install lynx