Wget как утилита для загрузки всех изображений в каталог mysite.com/img/

Во-первых, я настоятельно рекомендую вам попробовать сделать копию образа диска с поврежденным диском. Вам понадобится жесткий диск, по крайней мере такой же большой, как и раздел, который вы пытаетесь восстановить. Предполагая, что раздел этого диска указан в / dev как / dev / sda2, вы должны установить резервный диск на (скажем) / mnt / restore

. Вы должны использовать команду: dd bs=4096 if=/dev/sda2 of=/mnt/restore/sda2.img conv=noerror,sync

Это создает образ жесткого диска, включая его «плохие» блоки (если они есть, как это звучит.)

Затем отсоедините диск; поврежденный диск только ухудшается по мере его использования.

Затем вам нужно будет установить testdisk:

sudo apt-get install testdisk

Принять его запрос для ненадежных источников (если вы так склонны). [ ! d6]

Наконец, запустите тест

. Здесь вам нужно будет использовать testdisk для поиска и восстановления файлов:

testdisk /mnt/restore/sda2.img

Меню довольно понятно, но использование тестового диска, вероятно, выходит за рамки этого «ответа». Вот хорошее место для начала работы:

http://www.cgsecurity.org/wiki/TestDisk_Step_By_Step

http://www.cgsecurity.org/wiki/ TestDisk_Step_By_Step

Они должны помочь вам восстановить файлы и не наносить больше вреда вашему жесткому диску, чем это необходимо. После того как вы сделали столько восстановления, сколько сможете, из файла изображения, вы можете безопасно удалить его. Затем вы можете попробовать запустить тестовый диск на поврежденном диске и попробовать восстановить только файлы, которые абсолютно отсутствуют.

Удачи вам.

1
задан 17 August 2012 в 05:49

7 ответов

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Существует также другой способ сделать это с помощью wget, который я успешно использовал для одного сайта, и вы должны иметь возможность изменять приведенные ниже инструкции для других сайтов. Это включает в себя создание списка URL-адресов, а затем подачи этого списка на wget.

1) В качестве примера можно сказать, что вы хотите загрузить все 63 pdf-журнала журнала Full Circle (журнал Ubuntu), но ваш менеджер загрузок не может загрузить их все сразу. Поэтому найдите ссылку первого pdf-файла и быстро проверьте, что ссылки других журналов находятся в одном и том же формате url.

2) Благодаря знаниям, полученным в первой части, мы можем перейти к нашему скрипту для генерации URL-адресов. В приведенном ниже сценарии выполняется цикл while, который я изменил (кредит для его создателя). Вы изменяете этот скрипт, поместив количество журналов в until [ $i = 63 ] часть и поместите правильный URL-адрес после echo и убедитесь, что "$i" находится в правильной части URL-адреса, чтобы быть эхом, чтобы он менялся при каждом запуске цикла. URL-адреса генерируются, а затем добавляются в текстовый файл - это происходит через секунду после запуска скрипта и не так сложно настроить, как это звучит!

Сохранить сценарий в текстовом редакторе, сделать его исполняемым и запустить; измените его, как описано выше, когда вы хотите загрузить с другого сайта, чем мой пример.

#!/bin/bash
   i=0
   until [ $i = 63 ] ; do
    i=$(($i+1))
    echo "http://dl.fullcirclemagazine.org/issue"$i"_en.pdf" >> url.txt
done 

3) Наконец, предполагая, что url.txt находится в текущем рабочем каталоге, запустите:

wget -i url.txt  

Если вы хотите сохранить загрузки в другом месте, добавьте -P ~/MyDirectory после url.txt

. Он работает, если вы попробуете, введите ctrl c, чтобы прервать, если вы не хотите скачать их все!

1
ответ дан 25 May 2018 в 13:15

Другие вопросы по тегам:

Похожие вопросы: