массив mdadm не соберется на начальной загрузке, собирается вручную со списком устройств

Я выполняю 14.04 LTS с 5 RAID-массивами программного обеспечения диска с дисками на 2 ТБ. mdadm, lvm и xfs. Моим первичным устройством начальной загрузки является SSD на 256 ГБ.

Имел перебой в питании, и когда питание возвратилось, система не загрузится. При попытке загрузиться, следующее неоднократно прокручивается на экране, таким образом, я не мог закончить процесс начальной загрузки:

    Incrementally starting RAID arrays... 
    mdadm: CREATE user root not found 
    mdadm: CREATE group disk not found
    Incrementally started RAID arrays.

Существует ошибка на панели запуска для этого (https://bugs.launchpad.net/ubuntu / + source/mdadm / + ошибка/1335642), но там, кажется, не категорическое обходное решение - или по крайней мере ступает легко повторяемая мной.

При начальной загрузке в режим восстановления, перечисляет следующую информацию:

[ 2.482387] md: bind<sdb1> 
[ 2.408390] md: bind<sda1> 
[ 2.438005] md: bind<sdc1> 
[ 2.986691] Switched to clocksource tsc 
Incrementally starting RAID arrays... 
mdadm: CREATE user root not found 
mdadm: CREATE group disk not found 
[ 31.755948] md/raid:md0: device sdc1 operational as raid disk 1 
[ 31.756886] md/raid:md0: device sda1 operational as raid disk 0 
[ 31.756861] md/raid:md0: device sdb1 operational as raid disk 2 
[ 31.756115] md/raid:md0: device sdd1 operational as raid disk 3 
[ 31.756531] md/raid:md0: allocated 0kB 
[ 31.756647] md/raid:md0: raid level 5 active with 4 out of 5 devices, algorithm 2 
[ 31.756735] md0: detected capacity change from 0 to 8001591181312
mdadm: started array /dev/md0
Incrementally started RAID arrays. 
[ 31.757933] random: nonblocking pool is initialized 
[ 31.758184]  md0: unknown partition table 
[ 31.781641] bio: create slab <bio-1> at 1
Incrementally starting RAID arrays... 
mdadm: CREATE user root not found 
mdadm: CREATE group disk not found 
Incrementally started RAID arrays. 

Так, загружаясь в Живой CD, диски весь взгляд хорошо через УМНЫЕ данные. Если я пытаюсь работать mdadm --assemble --scan Я получаю соблюдающее предупреждение:

mdadm: WARNING /dev/sde1 and /dev/sde appear to have very similar superblocks.
      If they are really different, please --zero the superblock on one
      If they are the same or overlap, please remove one from the
      DEVICE list in mdadm.conf.

Массив не собран.

Я получил всю информацию об устройстве RAID здесь:

/dev/sda1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Tue Aug  2 11:43:38 2016
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1af33e59 - correct
         Events : 105212

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8       33        0      active sync   /dev/sdc1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1
/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Tue Aug  2 11:43:38 2016
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1af33e6d - correct
         Events : 105212

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       49        2      active sync   /dev/sdd1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Tue Aug  2 11:43:38 2016
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1af33e7b - correct
         Events : 105212

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       65        1      active sync   /dev/sde1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Tue Aug  2 11:43:38 2016
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1af33e8f - correct
         Events : 105212

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       81        3      active sync   /dev/sdf1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1
/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Tue Aug  2 11:43:38 2016
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1af33e41 - correct
         Events : 105212

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     4       8        1        4      active sync   /dev/sda1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1

Исходный/etc/mdadm/mdadm.conf (ничто сумасшедшее):

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 metadata=0.90 UUID=d5f6a94e:185828ec:b1902148:b8793263

# This file was auto-generated on Wed, 09 May 2012 23:34:51 -0400
# by mkconf $Id$

Так, если я работаю sudo mdadm --assemble /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 (в зависимости от которого диски являются дисками набега), затем, массив собирается правильно, и я могу получить доступ к файлам.

Я попытался вытянуть питание от всех дисков RAID, система все еще не загружается (тот же бесконечный цикл).

Я попытался chroot и определите каждое устройство в массиве в/etc/mdadm/mdadm.conf и затем обновите initramfs, который является, где я теперь, и система все еще не загрузится.

Вот новое /etc/mdadm/mdadm.conf:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
DEVICE /dev/sd[abcde]1

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
#ARRAY /dev/md0 metadata=0.90 UUID=d5f6a94e:185828ec:b1902148:b8793263
ARRAY /dev/md0 devices=/dev/sda1,/dev/sdb1,/dev/sdc1,/dev/sdd1,/dev/sde1

# This file was auto-generated on Wed, 09 May 2012 23:34:51 -0400
# by mkconf $Id$

То, что я не понимаю, - то, что заставляет систему не собираться на начальной загрузке, когда я могу собраться вручную путем определения устройств.

Одна из остающихся вещей, которые кажутся нечетными, - то, что я записал процесс начальной загрузки на медленной-mo камере, и не смотрите /dev/sde или /dev/sde1 в сообщениях загрузки. Я собираюсь изучить это, но действительно не знаю, что изучить.

Обновление - суббота 13 августа

Я делал больше расследований. Так, выполнение a sudo fdisk -l показывает следующее для дисков в RAID 5:

ubuntu@ubuntu:~$ sudo fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xca36f687

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect

WARNING: GPT (GUID Partition Table) detected on '/dev/sdc'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdc: 2000.4 GB, 2000398933504 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029167 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 33553920 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1  3907029166  1953514583   ee  GPT
Partition 1 does not start on physical sector boundary.

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xf66042a2

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sde: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2006adb2

   Device Boot      Start         End      Blocks   Id  System
/dev/sde1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdf: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x0008b3d6

   Device Boot      Start         End      Blocks   Id  System
/dev/sdf1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdg: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xd46f102b

   Device Boot      Start         End      Blocks   Id  System
/dev/sdg1              64  3907029167  1953514552   fd  Linux raid autodetect

Так, очевидно, здесь /dev/sdg1 запускается в другом местоположении сектора, чем другие разделы RAID. Так, следующий шаг должен был исследовать /dev/sdg диск. Как Вы видите следующими 4 командами, mdadm не исследует /dev/sdg управляйте и обнаружьте RAID как он, делает для других дисков (/dev/sda используемый в качестве примера ниже). Действительно ли это - подсказка относительно того, что является на самом деле неправильным?

ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdg
/dev/sdg:
   MBR Magic : aa55
Partition[0] :   3907029104 sectors at           64 (type fd)
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdg1
/dev/sdg1:
      Magic : a92b4efc
    Version : 0.90.00
       UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Sun Aug 14 03:04:59 2016
      State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1b029700 - correct
     Events : 105212

     Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       81        3      active sync   /dev/sdf1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sda
/dev/sda:
      Magic : a92b4efc
    Version : 0.90.00
       UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Sun Aug 14 03:04:59 2016
      State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1b0296b2 - correct
     Events : 105212

     Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     4       8        1        4      active sync   /dev/sda1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sda1
/dev/sda1:
      Magic : a92b4efc
    Version : 0.90.00
       UUID : d5f6a94e:185828ec:b1902148:b8793263
  Creation Time : Tue Feb 15 18:47:10 2011
     Raid Level : raid5
  Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
     Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0

    Update Time : Sun Aug 14 03:04:59 2016
      State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 1b0296b2 - correct
     Events : 105212

     Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     4       8        1        4      active sync   /dev/sda1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       65        1      active sync   /dev/sde1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       81        3      active sync   /dev/sdf1
   4     4       8        1        4      active sync   /dev/sda1

Наконец, я смущен путем выполнения sudo mdadm --assemble --scan -v (подробный режим), потому что это, кажется, дает предупреждение о диске (/dev/sdf) и первое (и только) раздел (/dev/sdf1) выглядеть одинаково и затем прекращает собираться. Посмотрите здесь:

ubuntu@ubuntu:~$ sudo mdadm --assemble --scan -v
mdadm: looking for devices for /dev/md0
mdadm: Cannot assemble mbr metadata on /dev/sdh1
mdadm: Cannot assemble mbr metadata on /dev/sdh
mdadm: no recogniseable superblock on /dev/sdb5
mdadm: Cannot assemble mbr metadata on /dev/sdb2
mdadm: Cannot assemble mbr metadata on /dev/sdb1
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: no RAID superblock on /dev/sdg
mdadm: no RAID superblock on /dev/sdc1
mdadm: no RAID superblock on /dev/sdc
mdadm: cannot open device /dev/sr0: No medium found
mdadm: no RAID superblock on /dev/loop0
mdadm: no RAID superblock on /dev/ram15
mdadm: no RAID superblock on /dev/ram14
mdadm: no RAID superblock on /dev/ram13
mdadm: no RAID superblock on /dev/ram12
mdadm: no RAID superblock on /dev/ram11
mdadm: no RAID superblock on /dev/ram10
mdadm: no RAID superblock on /dev/ram9
mdadm: no RAID superblock on /dev/ram8
mdadm: no RAID superblock on /dev/ram7
mdadm: no RAID superblock on /dev/ram6
mdadm: no RAID superblock on /dev/ram5
mdadm: no RAID superblock on /dev/ram4
mdadm: no RAID superblock on /dev/ram3
mdadm: no RAID superblock on /dev/ram2
mdadm: no RAID superblock on /dev/ram1
mdadm: no RAID superblock on /dev/ram0
mdadm: /dev/sdg1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdf is identified as a member of /dev/md0, slot 1.
mdadm: WARNING /dev/sdf1 and /dev/sdf appear to have very similar superblocks.
      If they are really different, please --zero the superblock on one
      If they are the same or overlap, please remove one from the
      DEVICE list in mdadm.conf.

На данном этапе я задаюсь вопросом, что я должен сделать затем?

  1. Я должен удалить/dev/sdg1 из массива, восстановить его, чтобы запуститься в секторе 2048 и добавить, что он въезжает задним ходом и позволил массиву восстановить себя? Если так, какие шаги я должен сделать?
  2. Есть ли что-нибудь на самом деле неправильно с запуском в секторе 64? После того как я могу собрать массив с ЖИВОГО CD путем определения устройств для использования, там способ определить, работает ли '/dev/sdg' диск правильно в массиве? Если так, это - стоящее выполнение № 1 выше или является там способом вручную установить устройства в массиве идентификатором устройства и т.д.? Определение устройств в mdadm.conf не работало.
  3. Есть ли другие диагностические шаги, которые я должен попробовать?

Заранее спасибо за Вашу справку!

Обновление - 23 сентября 2016

Так, я попробовал опцию № 1 выше на диске, который запустился в секторе 64. Я привел диск к сбою, удалил его из массива и повторно разделил пространство. Я затем добавил, что это въезжает задним ходом и позволило ему восстановить. Я также запустил офлайновый УМНЫЙ тест на диске. Все передали, и диск был добавлен назад в массив без проблемы.

Я не знаю то, что запросило этот следующий шаг, но я пытался выбрать другой пересмотр ядра из меню личинки. Через усовершенствованные параметры загрузки я не МОГУ загрузиться от 3.13.0-92-generic и при этом я не могу загрузиться от 3.13.0-86-generic. Они оба входят в бесконечный цикл.

ОДНАКО я могу загрузиться прочь 3.13.0-63-generic и это походит на любое ядро, более старое, чем это (хотя я не протестировал их всех). Очевидно, система не работает 100%: хотя это берет меня к GUI, я не могу войти в систему. Я должен переключить на терминал и вход в систему тот путь. Однако массив смонтирован и готов пойти, и Samba хорошо работает.

Так, моя следующая мысль состояла в том, чтобы изучить то, что отличалось между initrd изображения. Я развернул нерабочее изображение и рабочее изображение и сравнил все недвоичные файлы и хотя я - новобранец, я не видел ничто плохого.

В этой точке это, кажется, указывает на меня на различие между изображениями ядра, но я - выход из своей глубины здесь и не уверенный, что я должен сделать затем.

Помогите?

1
задан 24 September 2016 в 05:02

0 ответов

Другие вопросы по тегам:

Похожие вопросы: