предупреждение mdadm (незагрузочная система) от обновления-initramfs, предложенное исправление mkconf кажется несовместимым с описанием mdadm проблемы

Сводка: обновление-initramfs говорит, что незагрузочная система, сообщение указывает на mkconf, который предлагает, переписывают к mdadm.conf, который, казалось бы, повредил бы RAID, система (на данный момент), но следующая перезагрузка может уничтожить его, неясный, как продолжить двигаться, mdadm.conf, выглядит хорошей, но что обновление-initramfs предупреждает сообщение мне? и почему mkconf, кажется, предлагает что-то плохо?

У меня есть выделенный сервер по 1and1.com, под управлением Ubuntu 12.04, и "обновляет-initramfs-u", сообщает mdadm сообщение об ошибке, указывающее, что сервер не перезагрузит правильно. Я посмотрел на соответствующие конфигурационные файлы и не смог определить проблему. Я не попытался перезагрузить начиная с наблюдения этого сообщения, потому что я не хочу к, "просто видят то, что происходит" на сервере, я не могу физически получить доступ (и возможно поставить еще более трудный диагноз, если я теряю доступ к рабочей системе, которую я могу зондировать для получения информации.) Я чувствую, что должен попытаться понять сообщение об ошибке и конфигурацию системы, пока я не уверен, что перезагрузка, вероятно, успешно выполнится.

Во-первых, сообщение об ошибке (от обновления-initramfs-u):

W: mdadm: the array /dev/md3 with UUID dffcb503:bc157198:3fb6082e:e5593158
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md1 with UUID a46d442b:4e5b8a52:3fb6082e:e5593158
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.

Я концентрируюсь ниже на md1, так как это - то, где начальная загрузка / расположена (так "необходимый для начальной загрузки" === TRUE), но то же сообщение об ошибке также сгенерировано для md3.

md структура из изображения Ubuntu ISP по умолчанию, эта часть системы не была затронута. Единственное изменение в структуре диска/раздела разворачивало размер логических дисков (lvextend и resize2fs), который (хотя это могло бы влиять на другие вещи), будет казаться, не будет влиять "/" (на md1) и его способность загрузиться.

кошка/etc/fstab

/dev/md1    /       ext3    defaults       1 1
/dev/sda2   none        swap    sw          
/dev/sdb2   none        swap    sw          
/dev/vg00/usr   /usr        ext4    errors=remount-ro       0 2
/dev/vg00/var   /var        ext4    errors=remount-ro       0 2
/dev/vg00/home  /home       ext4    errors=remount-ro   0 2

proc/proc proc nodev, noexec, nosuid 0 0

Мы видим, что md система работает правильно с md1 на sda1 и sdb1:

cat /proc/mdstat
-----
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md1 : active raid1 sdb1[1] sda1[0]
      4194240 blocks [2/2] [UU]

md3 : active raid1 sdb3[0] sda3[1]
      1458846016 blocks [2/2] [UU]

Кажется, что они md's определяются в строках МАССИВА mdadm.conf:

кошка/etc/mdadm/mdadm.conf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Tue, 11 May 2010 20:53:30 +0200
# by mkconf $Id$

ARRAY /dev/md1 level=raid1 num-devices=2 devices=/dev/sda1,/dev/sdb1
ARRAY /dev/md3 level=raid1 num-devices=2 devices=/dev/sda3,/dev/sdb3

Новый initrd в начальной загрузке / является initrd.img-3.2.0-37-generic, и mdadm.conf, кэшируемый там, выглядит идентичным (проверенный через "gunzip-c/boot/initrd.img-3.2.0-37-generic | cpio-i - тихий - к - stdout etc/mdadm/mdadm.conf")

Таким образом, фактическая ситуация (рабочий md's и как они определяются для начальной загрузки) выглядит хорошо мне. Возвращаясь к "обновлению-initramfs-u" сообщение об ошибке, это предлагает сравнить mdadm.conf с выводом/usr/share/mdadm/mkconf. Это - то, где мы начинаем видеть что-то, что выглядит действительно отличающимся:

/usr/share/mdadm/mkconf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

Если я читаю это правильно, система сделала предложение, переписывают mdadm.conf (для фиксации этого, md1 и md3 "в настоящее время активны, но... не перечисленный в mdadm.conf") ОТБРОСИЛ бы список md1 и md3 от mdadm.conf. Таким образом, я не могу придать сообщению об ошибке квадратную форму, и предложенная фиксация (измените mdadm.conf для движения от не включенного в список до перечисленного, но куда предложенная фиксация идет от перечисленного до не включенного в список?) Моя неспособность (1) найти любую фактическую проблему и (2) согласовать сообщение об ошибке с предложенной фиксацией, заставляет меня не доверить выводу/usr/share/mdadm/mkconf (и сообщение об ошибке, направляющее меня там, от обновления-initramfs-u). Но я не хочу игнорировать зовущую на помощь систему, особенно на части системы, которая так очень важна. Я полагаю, что ОС знает что-то, что я не делаю. И экспериментирование (удаленная перезагрузка) является последним средством.

При поиске онлайн других, имеющих подобные сообщения об ошибках, связанные проблемы, кажется, включают mkconf, генерирующий строки МАССИВА, которые отличаются от того, что находится в настоящее время в mdadm.conf (и вывод mkconf's использования обычно рекомендуется как фиксация к строкам МАССИВА.), Но в этом случае, mkconf не обеспечивает строк МАССИВА вообще, таким образом, это направление исследований не привело к соответствующей помощи. В комментариях в mdadm.conf говорится, что он сканирует для суперблоков MD defualt, таким образом, то, что сгенерированный файл опускает прямую ссылку на md1/md3, возможно, хорошо(?), если mdadm может потянуть ту информацию из суперблоков. Но если так, почему в сообщении об ошибке говорится, что проблема состоит в том, что md1/md3 не включен в список, и что не так с существующей конфигурацией (почему там сообщение об ошибке вообще)? Так, чтобы ход мыслей (пытающийся понять, как сгенерированный файл безо лжи МАССИВА мог бы помочь) не удавался также.

Это, возможно, лает неправильное дерево, но похоже на имена устройств sda1 в настоящее время позволяемый в mdadm.conf на строках МАССИВА? Я знаю, что UUID предпочтен, использование имен устройств могло быть причиной сообщения об ошибке? Если так, какие опции не могли бы разработать: (1) никакое изменение в mdadm.conf и доверии системе, продолжающей собрать md1 на основе имен устройств; (2) используют вывод mkconf, без явного md's вообще (никакое имя устройства, никакой UUID), полагаясь на автоматическое обнаружение на основе суперблоков; (3) найти UUID и записать новые строки МАССИВА для mdadm.conf (который не был бы ни существующими значениями, ни mkconf предложил замену)?

Как должен причина этого сообщения об ошибке быть определенным, что это пытается сказать мне?

Дополнительная информация, которая могла бы быть полезной:

mdadm - misc - детализируют/dev/md1

/dev/md1:
        Version : 0.90
  Creation Time : Sun Feb 24 19:11:59 2013
     Raid Level : raid1
     Array Size : 4194240 (4.00 GiB 4.29 GB)
  Used Dev Size : 4194240 (4.00 GiB 4.29 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sun Apr 27 23:39:38 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : a46d442b:4e5b8a52:3fb6082e:e5593158
         Events : 0.122

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

mdadm - misc - детализируют/dev/md3

/dev/md3:
        Version : 0.90
  Creation Time : Sun Feb 24 19:11:59 2013
     Raid Level : raid1
     Array Size : 1458846016 (1391.26 GiB 1493.86 GB)
  Used Dev Size : 1458846016 (1391.26 GiB 1493.86 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 3
    Persistence : Superblock is persistent

    Update Time : Sun Apr 27 23:43:41 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : dffcb503:bc157198:3fb6082e:e5593158
         Events : 0.1883

    Number   Major   Minor   RaidDevice State
       0       8       19        0      active sync   /dev/sdb3
       1       8        3        1      active sync   /dev/sda3

6
задан 3 May 2014 в 05:17

1 ответ

Я нашел решение здесь: http://www.howtoforge.com/forums/showthread.php?t=65066

Получает UUID для Вашего рассматриваемого массива с командой: mdadm --misc --detail /dev/mdX (где X номер массива) и редактирование /etc/mdadm/mdadm.conf и заменяют их:

ARRAY /dev/md1 UUID=dffcb503:bc157198:3fb6082e:e5593158
ARRAY /dev/md3 UUID=a46d442b:4e5b8a52:3fb6082e:e5593158

Замена моего/dev/mdX устройства и UUID с Вашим. Я просто сделал это на одном моем, и это работало. Я отправляю это не действительно для Вас, когда Вы, вероятно, решили его давным-давно, но для кого-либо еще, с которым это произошло.

0
ответ дан 3 May 2014 в 05:17

Другие вопросы по тегам:

Похожие вопросы: