Набег NAS 5 Восстановлений с помощью mdadm: объем и монтирует проблемы, помогите

Привет это - мой первый набег в человечность, или любая форма Linix в этом отношении, а также моя первая попытка когда-либо восстановить потерянный набег, но я - довольно быстрое исследование. У меня есть WD на 8 ТБ Sharespace, четыре 2 ТБ подвозят набор на Набеге 5 с двумя "отказавшими" (возможно, не) диски. Я отчаянно пытаюсь восстанавливать свои данные. Кроме всей музыки и фильмов и игр и т.д., все мои фотографии и домашние видео моих детей, растущих, находятся на этой вещи, и я справедливо отчаянно пытаюсь восстанавливать их. Кроме предпочтения сделать вещи самостоятельно я не могу позволить себе профессиональное восстановление данных. У меня нет резервных дисков для копирования моих оригиналов, и я не могу позволить себе их так, я застреваю, пытаясь сделать это сам с исходными дисками. Любая справка ценится.

Простите мне, если я объясняю, поскольку я не действительно уверен, что релевантно и что не, поскольку я пытаюсь понять это. Я полагаю, что контроллер в моем NAS перестал работать, и данные на самом деле все еще неповреждены на дисках. Я вытащил все четыре диска из NAS и привел в порядок их в моем аккомпанементе, разъединил мой нормальный жесткий диск и использую Живой CD в режиме попытки для выполнения Ubuntu. Я пытался сделать это к настоящему времени использующее это руководство: Набег HOWTO:Sharespace 5 Восстановлений данных, но я столкнулся с несколькими препятствиями по пути, и весь форум закрывается так, я не могу задать вопросы там.

Первая вещь, которую я сделал, состояла в том, чтобы приняться в пользователе root и проверить, чтобы удостовериться, что все мои диски были в правильном месте и распознали. Используя fdisk-l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Едва ли знание, что я ищу, но не вижу что-либо, что повысило любые красные флаги, они все выглядят довольно неповрежденными и здоровыми мне, таким образом, я возобновляю попытку собрать набег от sd*4 разделов, которые, как предполагается, являются теми с данными для восстановления набега.

Я попробовал:

mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

но я получил ошибку, приблизительно 2 диска и не являющийся достаточно так начали обыскивать Интернет и узнали, что была команда силы, таким образом, я использовал его:

mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

и это, казалось, работало. YAY!... вид...

vgscan

No volume groups found

Шиканье... Таким образом, назад к обыску Интернета я нашел сообщение, где кто-то имел подобную проблему и должен был воссоздать их объем и локальные группы для успешного доступа к их данным. Используя имена групп объема и локальных групп от руководства, которое я использовал, я создал их использующий новые команды, которые я нашел:

vgcreate vg0 /dev/md0

и

lvcreate -L5.45T -n lv0 vg0

оба сообщил, что быть созданным и весь казались хорошими в мире. Пока, возвращаясь к моему руководству я не пытался смонтировать его:

mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type

По-видимому "автоматический" не работает как сказанное руководство. При вводе по абсолютному адресу по всей сети я нашел, что пара файловой системы вводит ext3 и расширение 4, таким образом, я судил их также:

mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

и

mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Поскольку Вы видите, что ни один не работал... Таким образом, после нескольких часов больше поиска я пришел к выводу, что действительно должен обратиться за помощью. Если кто-либо имеет какие-либо предложения или совет, или еще лучше знает, как сделать эту работу, я был бы очень признателен за понимание. Если бы я сделал что-то не так, что также было бы действительно хорошо для знания.

Я полагал, что это могло бы также быть полезно:

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Dec 10 05:44:29 2009
     Raid Level : raid5
     Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
  Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr  4 08:12:03 2013
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : dd69553d:5c832cf7:9755c9c8:d208511e
         Events : 0.3986045

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       0        0        3      removed

а также это:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
      5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

unused devices: <none>

Это - то, на что мой fdisk-l похож теперь после проигрывания вокруг со всем этим:

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table

Следует иметь в виду, что я являюсь все еще новым в этом так, высоко ценилось бы, мог ли совет идти с некоторым основным пониманием того, почему Вы делаете свое предложение. Это поможет мне значительно понять больше того, что я делаю.Спасибо!

1
задан 4 April 2013 в 21:44

2 ответа

Из предоставленной вами информации я думаю, что вы, вероятно, правы в том, что подавляющее большинство ваших данных остается нетронутыми. На данный момент вы имеете дело с битым массивом RAID. Очевидно, не там, где ты хочешь быть, но и не конец света.

По моему опыту работы с блоками ShareSpace, обычно один диск выпадает из массива задолго до того, как RAID действительно выходит из строя. Система программного обеспечения Linux Linux обнаруживает первый сбой диска и переключает массив в режим с ухудшенными характеристиками. Это означает, что массив продолжает работать, но он использует только три оставшихся хороших диска. Вещи будут работать нормально в течение некоторого времени, пока второй диск не выпадет из массива. Затем происходит сбой RAID и возникает проблема.

Эти диски выпадают по причине. Обычно это плохие сектора. К счастью, выздоровление очень часто возможно. Но вы должны действовать осторожно, так как любые ваши упущенные действия уменьшат шансы на восстановление данных.

Если вы хотите действовать самостоятельно, я бы посоветовал вам сделать резервные копии, прежде чем продолжить. Я знаю, легче сказать, чем сделать с четырьмя дисками по 2 ТБ. Но вам действительно нужно будет сделать резервную копию только трех из них / dev / sda, / dev / sdb и /dev/sdc.

.

Или, если вам нужна помощь, я онлайн-консультант по восстановлению данных. И я выполняю удаленное восстановление данных NAS / RAID через Интернет для клиентов по всему миру. В прошлом я выполнял много успешных удаленных операций восстановления данных WD ShareSpace. Я предлагаю как удаленное восстановление данных, так и помощь в восстановлении данных. Если вам нравится, я был бы рад помочь вам. Свяжитесь со мной через мой сайт. Меня зовут Стивен Харан, и мой сайт http://www.FreeDataRecovery.us

0
ответ дан 4 April 2013 в 21:44

Обновление: все мои данные удалось восстановить благодаря Стивену. Я настоятельно рекомендую его сервис, если кому-то нужна помощь с любым видом восстановления данных. http://www.FreeDataRecovery.us

0
ответ дан 4 April 2013 в 21:44

Другие вопросы по тегам:

Похожие вопросы: