Исправление неработающего RAID5 с помощью mdmadm на Ubuntu 12.04 [устройство QNAP]

Один из наших QNAP NAS вышел из строя во время предупреждения на диске, поэтому все они работали / были доступны в массиве. И я пытаюсь восстановить ДАННЫЕ, поскольку QNAP NAS не загружается и не отвечает с дисками или без них.

Я загрузил все жесткие диски с живого диска Ubuntu с помощью команды mdadm . Я не уверен, что случилось с первым диском, поскольку он показывает HPFS / NTFS / exFAT на третьем разделе одного диска. Кроме того, UUID *, предполагающий некоторые уникальные числа, теперь отображается как ** 0000: 0000 .... вместе с Уровень рейда: неизвестно .

Ниже приведены некоторые полезные результаты, которые я собрал.

fdisk -l

root@ubuntu:/home/ubuntu# fdisk -l | more

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00009a4a

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1              40     1060289      530125   83  Linux
/dev/sda2         1060296     2120579      530142   83  Linux
/dev/sda3         2120584  1952507969   975193693    7  HPFS/NTFS/exFAT
/dev/sda4      1952507976  1953503999      498012   83  Linux

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000ac6cc

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1              40     1060289      530125   83  Linux
/dev/sdb2         1060296     2120579      530142   83  Linux
/dev/sdb3         2120584  1952507969   975193693   83  Linux
/dev/sdb4      1952507976  1953503999      498012   83  Linux

Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000b7ac5

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1              40     1060289      530125   83  Linux
/dev/sdc2         1060296     2120579      530142   83  Linux
/dev/sdc3         2120584  1952507969   975193693   83  Linux
/dev/sdc4      1952507976  1953503999      498012   83  Linux

Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000b7ac5

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1              40     1060289      530125   83  Linux
/dev/sdc2         1060296     2120579      530142   83  Linux
/dev/sdc3         2120584  1952507969   975193693   83  Linux
/dev/sdc4      1952507976  1953503999      498012   83  Linux

Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000d2a20

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1              40     1060289      530125   83  Linux
/dev/sdd2         1060296     2120579      530142   83  Linux
/dev/sdd3         2120584  1952507969   975193693   83  Linux
/dev/sdd4      1952507976  1953503999      498012   83  Linux

mdmadm проверить

root@ubuntu:/home/ubuntu# mdadm -E /dev/sd[abcd]3
/dev/sda3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 00000000:00000000:00000000:00000000
  Creation Time : Fri Sep 25 07:04:44 2015
     Raid Level : -unknown-
   Raid Devices : 0
  Total Devices : 3
Preferred Minor : 0

    Update Time : Fri Sep 25 07:19:04 2015
          State : active
 Active Devices : 0
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 3
       Checksum : 8f463afd - correct
         Events : 1


      Number   Major   Minor   RaidDevice State
this     2       8        3        2      spare   /dev/sda3

   0     0       8       35        0      spare   /dev/sdc3
   1     1       8       19        1      spare   /dev/sdb3
   2     2       8        3        2      spare   /dev/sda3
/dev/sdb3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 00000000:00000000:00000000:00000000
  Creation Time : Fri Sep 25 07:04:44 2015
     Raid Level : -unknown-
   Raid Devices : 0
  Total Devices : 3
Preferred Minor : 0

    Update Time : Fri Sep 25 07:19:04 2015
          State : active
 Active Devices : 0
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 3
       Checksum : 8f463b19 - correct
         Events : 1


      Number   Major   Minor   RaidDevice State
this     0       8       35        0      spare   /dev/sdc3

   0     0       8       35        0      spare   /dev/sdc3
   1     1       8       19        1      spare   /dev/sdb3
   2     2       8        3        2      spare   /dev/sda3
/dev/sdc3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 00000000:00000000:00000000:00000000
  Creation Time : Fri Sep 25 07:04:44 2015
     Raid Level : -unknown-
   Raid Devices : 0
  Total Devices : 3
Preferred Minor : 0

    Update Time : Fri Sep 25 07:19:04 2015
          State : active
 Active Devices : 0
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 3
       Checksum : 8f463b0b - correct
         Events : 1


      Number   Major   Minor   RaidDevice State
this     1       8       19        1      spare   /dev/sdb3

   0     0       8       35        0      spare   /dev/sdc3
   1     1       8       19        1      spare   /dev/sdb3
   2     2       8        3        2      spare   /dev/sda3
/dev/sdd3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 00000000:00000000:00000000:00000000
  Creation Time : Fri Sep 25 09:28:22 2015
     Raid Level : -unknown-
   Raid Devices : 0
  Total Devices : 1
Preferred Minor : 0

    Update Time : Fri Sep 25 09:31:03 2015
          State : active
 Active Devices : 0
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 1
       Checksum : 8f467b40 - correct
         Events : 1


      Number   Major   Minor   RaidDevice State
this     0       8        3        0      spare   /dev/sda3

   0     0       8        3        0      spare   /dev/sda3

mdadm conf

root@ubuntu:/home/ubuntu# cat /etc/mdadm/mdadm.conf 
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md4 UUID=a5ef83a2:3df739b9:7e77f235:9827a98f
ARRAY /dev/md0 UUID=00000000:00000000:00000000:00000000
   spares=3
ARRAY /dev/md9 UUID=c39aa918:f8de04d3:bb375993:177a40db
ARRAY /dev/md4 UUID=bb500a60:f1f7edde:07b598b5:09c70531
   spares=1
ARRAY /dev/md0 UUID=00000000:00000000:00000000:00000000
   spares=1
ARRAY /dev/md13 UUID=62a22532:1a265501:07a38901:1b2b353e

# This file was auto-generated on Sat, 26 Sep 2015 05:23:53 +0000
# by mkconf $Id$

mdstat после выполнения и ассемблировать команду

root@ubuntu:/home/ubuntu# cat /proc/mdstat 
Personalities : 
unused devices: <none>

Может ли кто-нибудь указать, что я здесь сделал не так, или я что-то упустил?

I ' m действительно застрял в этом, и если кто-нибудь может помочь получить ДАННЫЕ, вытащив обратно RAID.

1
задан 26 September 2015 в 08:56

1 ответ

Ну, я не хочу оставлять этот вопрос открытым навсегда. Так, я отправляю ответ для закрытия этого.

Это было полностью завинчено одним из моего коллеги, и это было почти разорвано от момента, я взял это. Из-за некоторых приложений восстановления, использованных, не зная, что диски находятся на самом деле на RAID-массиве, он полностью потерял его идентификатор и четность. Это было подтверждено QNAP techs, когда они взяли удалить сессию.

Однако я смог видеть, что только QNAP связал ДАННЫЕ, как они были в другом разделе на дисках. Я смог объединить RAID-массивы и смонтировать ДАННЫЕ также.

Конечный результат должен был восстановить использование mdadm с --create, который мог бы помочь или не оставить меня никаким выбором. Однако я не следовал на том, что в значительной степени доказывает, что массивы потеряны, и дисков не стало.

Никакой выбор, кроме как переносить боль. Здесь я закрываю свое обсуждение.

А полное исследование и команда, которую я использовал, могут быть найдены в" Фиксация поврежденного QNAP RAID5 с помощью mdmadm на Ubuntu 12.04". Хотелось бы надеяться, кто-то мог бы найти подсказку или два, если они когда-нибудь сталкиваются с такой ситуацией.

0
ответ дан 1 October 2019 в 01:05

Другие вопросы по тегам:

Похожие вопросы: