Хорошо, эта проблема заставила меня озадачиваться месяцами, и я нахожусь на Fedora, но мой пост может помочь кому-то не сломать все без толку.
Сегодня я понял, что звуковые уведомления в Thunderbird больше не работают просто потому, что я отключил звуковые эффекты в пульсе .... Я бы никогда не думал, что эти два были связаны, и я отключил его, потому что я не был взволнован звуковой галереей, которую он предложил.
Теперь уведомление по почте вернулось, и это очень важно для моей работы. Надеюсь, что кто-то поможет там.
- инструмент, который вы ищете.
HTTrack позволяет загружать веб-сайт World Wide Web из Интернета в локальный каталог, построение рекурсивно всех каталогов, получение HTML, изображений и других файлов с сервера на ваш компьютер. HTTrack упорядочивает относительную структуру ссылок исходного сайта.С помощью wget вы можете скачать весь сайт, вы должны использовать переключатель -r для рекурсивной загрузки. Например,
wget -r http://www.google.com
WEBHTTRACK WEBITE COPIER - удобный инструмент для загрузки всего веб-сайта на ваш жесткий диск для автономного просмотра. Запустите программный центр ubuntu и введите «копир веб-сайта» без кавычек в поле поиска. выберите и загрузите его из программного центра в вашу систему. запустите webHTTrack либо из laucher, либо из меню Start, оттуда вы сможете начать пользоваться этим отличным инструментом для загрузки вашего сайта
Я не знаю о субдоменах, т. е. подсайтах, но wget можно использовать для захвата полного сайта. Взгляните на этот вопрос суперпользователя. В нем говорится, что вы можете использовать -D domain1.com,domain2.com для загрузки разных доменов в одном скрипте. Я думаю, вы можете использовать эту опцию для загрузки поддоменов i.e -D site1.somesite.com,site2.somesite.com
Я использую Burp - инструмент паук гораздо более интеллектуальный, чем wget, и его можно настроить, чтобы избежать необходимости при необходимости. Burp Suite - это мощный набор инструментов для тестирования, но инструмент для пауков очень эффективен.
Вы можете загрузить весь сайт с помощью этой команды:
wget -r -l 0 website
Пример:
wget -r -l 0 http://google.com
-r
--recursive
Turn on recursive retrieving. The default maximum depth is 5.
-l depth
--level=depth
Specify recursion maximum depth level depth.
Смотрите этот учебник для более
Источники: [ f3]
Если скорость вызывает беспокойство (а благополучия сервера нет), вы можете попробовать puf, который работает как wget, но может одновременно загружать несколько страниц. Это, однако, не готовый продукт, не поддерживаемый и ужасно недокументированный. Тем не менее, для загрузки веб-сайта с большим количеством мелких файлов это может быть хорошим вариантом.