Я нашел хорошую статью по этому поводу: http://itsfoss.com/speed-up-slow-wifi-connection-ubuntu/
Я пробовал шаги с 1 по 4, но в конце Шаг 5 (установка WICD) - это то, что сработало для меня.
Я приведу этот раздел здесь, так как это решение, которое я не видел в предыдущих ответах здесь:
РЕШЕНИЕ 5: DITCH DEFAULT NETWORK MANAGER И EMBRACE WICD «Медленное или несогласованное беспроводное соединение, в некоторых случаях, также связано с собственным сетевым менеджером Ubuntu, который по умолчанию является моим дефолтом. Я не уверен, что это за причина, но я видел, как люди в Ubuntu Forums говорили об этой проблеме особенно в Ubuntu 12.04. Вы можете установить Wicd, альтернативного и лучшего сетевого менеджера из Ubuntu Software Center или из терминала. Подробнее о том, как использовать Wicd, вы можете прочитать мою другую статью, которую я использовал для поиска SSID беспроводных сетей в Ubuntu «.Чтобы уточнить, после установки WICD, мой WIFI, я думаю, что отключается немного реже (это примерно каждые 20 минут), но большая разница в том, что мне ранее приходилось отключать WIFI, а затем повторно доступный WIFI для восстановления моего подключения к Интернету. Теперь с WICD он просто автоматически (и довольно прозрачно) восстанавливается в течение нескольких секунд.
Как объяснять здесь, вы можете сделать это со следующим:
# get all pages
curl 'http://domain.com/id/[1-151468]' -o '#1.html'
# get all images
grep -oh 'http://pics.domain.com/pics/original/.*jpg' *.html >urls.txt
# download all images
sort -u urls.txt | wget -i-
Получение изображения Вот сценарий bash, содержащий URL-адрес как первый параметр:
#!/bin/bash
name=`echo $1 | sed 's/\//_/g' | sed 's/https:__[a-z\.]\+_//g'`
wget -O $name $1
Возможно, он не работает с некоторыми URL-адресами, поэтому вы знаете.
Как объяснять здесь, вы можете сделать это со следующим:
# get all pages
curl 'http://domain.com/id/[1-151468]' -o '#1.html'
# get all images
grep -oh 'http://pics.domain.com/pics/original/.*jpg' *.html >urls.txt
# download all images
sort -u urls.txt | wget -i-
Получение изображения Вот сценарий bash, содержащий URL-адрес как первый параметр:
#!/bin/bash
name=`echo $1 | sed 's/\//_/g' | sed 's/https:__[a-z\.]\+_//g'`
wget -O $name $1
Возможно, он не работает с некоторыми URL-адресами, поэтому вы знаете.
Как объяснять здесь, вы можете сделать это со следующим:
# get all pages
curl 'http://domain.com/id/[1-151468]' -o '#1.html'
# get all images
grep -oh 'http://pics.domain.com/pics/original/.*jpg' *.html >urls.txt
# download all images
sort -u urls.txt | wget -i-
Получение изображения Вот сценарий bash, содержащий URL-адрес как первый параметр:
#!/bin/bash
name=`echo $1 | sed 's/\//_/g' | sed 's/https:__[a-z\.]\+_//g'`
wget -O $name $1
Возможно, он не работает с некоторыми URL-адресами, поэтому вы знаете.