Загрузите изображение с URL-адреса с помощью wget и автоматически измените имя файла

Я нашел хорошую статью по этому поводу: http://itsfoss.com/speed-up-slow-wifi-connection-ubuntu/

Я пробовал шаги с 1 по 4, но в конце Шаг 5 (установка WICD) - это то, что сработало для меня.

Я приведу этот раздел здесь, так как это решение, которое я не видел в предыдущих ответах здесь:

РЕШЕНИЕ 5: DITCH DEFAULT NETWORK MANAGER И EMBRACE WICD «Медленное или несогласованное беспроводное соединение, в некоторых случаях, также связано с собственным сетевым менеджером Ubuntu, который по умолчанию является моим дефолтом. Я не уверен, что это за причина, но я видел, как люди в Ubuntu Forums говорили об этой проблеме особенно в Ubuntu 12.04. Вы можете установить Wicd, альтернативного и лучшего сетевого менеджера из Ubuntu Software Center или из терминала. Подробнее о том, как использовать Wicd, вы можете прочитать мою другую статью, которую я использовал для поиска SSID беспроводных сетей в Ubuntu «.

Чтобы уточнить, после установки WICD, мой WIFI, я думаю, что отключается немного реже (это примерно каждые 20 минут), но большая разница в том, что мне ранее приходилось отключать WIFI, а затем повторно доступный WIFI для восстановления моего подключения к Интернету. Теперь с WICD он просто автоматически (и довольно прозрачно) восстанавливается в течение нескольких секунд.

1
задан 16 April 2017 в 01:11

3 ответа

Поиск всех изображений веб-сайта

Как объяснять здесь, вы можете сделать это со следующим:

# get all pages curl 'http://domain.com/id/[1-151468]' -o '#1.html' # get all images grep -oh 'http://pics.domain.com/pics/original/.*jpg' *.html >urls.txt # download all images sort -u urls.txt | wget -i-

Получение изображения Вот сценарий bash, содержащий URL-адрес как первый параметр:

#!/bin/bash name=`echo $1 | sed 's/\//_/g' | sed 's/https:__[a-z\.]\+_//g'` wget -O $name $1

Возможно, он не работает с некоторыми URL-адресами, поэтому вы знаете.

1
ответ дан 18 July 2018 в 14:53

Поиск всех изображений веб-сайта

Как объяснять здесь, вы можете сделать это со следующим:

# get all pages curl 'http://domain.com/id/[1-151468]' -o '#1.html' # get all images grep -oh 'http://pics.domain.com/pics/original/.*jpg' *.html >urls.txt # download all images sort -u urls.txt | wget -i-

Получение изображения Вот сценарий bash, содержащий URL-адрес как первый параметр:

#!/bin/bash name=`echo $1 | sed 's/\//_/g' | sed 's/https:__[a-z\.]\+_//g'` wget -O $name $1

Возможно, он не работает с некоторыми URL-адресами, поэтому вы знаете.

1
ответ дан 24 July 2018 в 20:31

Поиск всех изображений веб-сайта

Как объяснять здесь, вы можете сделать это со следующим:

# get all pages curl 'http://domain.com/id/[1-151468]' -o '#1.html' # get all images grep -oh 'http://pics.domain.com/pics/original/.*jpg' *.html >urls.txt # download all images sort -u urls.txt | wget -i-

Получение изображения Вот сценарий bash, содержащий URL-адрес как первый параметр:

#!/bin/bash name=`echo $1 | sed 's/\//_/g' | sed 's/https:__[a-z\.]\+_//g'` wget -O $name $1

Возможно, он не работает с некоторыми URL-адресами, поэтому вы знаете.

1
ответ дан 31 July 2018 в 23:32

Другие вопросы по тегам:

Похожие вопросы: