Я создал RAID с:
sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2
sudo mdadm --detail --scan
возвраты:
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
К которому я добавил его /etc/mdadm/mdadm.conf
, посмотрите ниже:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
cat /proc/mdstat
возвраты:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sdb2[0] sdc2[1]
208629632 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sdb1[0] sdc1[1]
767868736 blocks super 1.2 [2/2] [UU]
unused devices: <none>
ls -la /dev | grep md
возвраты:
brw-rw---- 1 root disk 9, 1 Oct 30 11:06 md1
brw-rw---- 1 root disk 9, 2 Oct 30 11:06 md2
Таким образом, я думаю, что все хорошо, и я перезагружаю.
После перезагрузки/dev/md1 теперь/dev/md126, и/dev/md2 теперь/dev/md127?????
sudo mdadm --detail --scan
возвраты:
ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
cat /proc/mdstat
возвраты:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sdc2[1] sdb2[0]
208629632 blocks super 1.2 [2/2] [UU]
md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
767868736 blocks super 1.2 [2/2] [UU]
unused devices: <none>
ls -la /dev | grep md
возвраты:
drwxr-xr-x 2 root root 80 Oct 30 11:18 md
brw-rw---- 1 root disk 9, 126 Oct 30 11:18 md126
brw-rw---- 1 root disk 9, 127 Oct 30 11:18 md127
Не все потеряно, я:
sudo mdadm --stop /dev/md126
sudo mdadm --stop /dev/md127
sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2
и проверьте все:
sudo mdadm --detail --scan
возвраты:
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
cat /proc/mdstat
возвраты:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sdb2[0] sdc2[1]
208629632 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sdb1[0] sdc1[1]
767868736 blocks super 1.2 [2/2] [UU]
unused devices: <none>
ls -la /dev | grep md
возвраты:
brw-rw---- 1 root disk 9, 1 Oct 30 11:26 md1
brw-rw---- 1 root disk 9, 2 Oct 30 11:26 md2
Так еще раз я думаю, что все хорошо, и я перезагружаю.
Снова, после перезагрузки,/dev/md1 является/dev/md126, и/dev/md2 является/dev/md127?????
sudo mdadm --detail --scan
возвраты:
ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
cat /proc/mdstat
возвраты:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sdc2[1] sdb2[0]
208629632 blocks super 1.2 [2/2] [UU]
md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
767868736 blocks super 1.2 [2/2] [UU]
unused devices: <none>
ls -la /dev | grep md
возвраты:
drwxr-xr-x 2 root root 80 Oct 30 11:42 md
brw-rw---- 1 root disk 9, 126 Oct 30 11:42 md126
brw-rw---- 1 root disk 9, 127 Oct 30 11:42 md127
Что я пропускаю здесь?
Я нашел ответ здесь, RAID начинается с md127 вместо md0 . Короче говоря, я выбрал свои определения /etc/mdadm/mdadm.conf из:
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
в:
ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb
и запустил:
sudo update-initramfs -u
I Я далеко от эксперта по этому вопросу, но, насколько я понимаю, это ...
Ядро собрало массивы до наступления обычного времени для сборки массивов. Когда ядро собирает массивы, оно не использует mdadm.conf. Поскольку разделы уже были собраны ядром, обычная сборка массива, использующая mdadm.conf, была пропущена.
Вызов sudo update-initramfs -u
говорит ядру снова взглянуть на систему, чтобы выяснить, как ее запустить.
Я уверен, что кто-то с лучшими знаниями исправит меня / уточнит это.
Используйте следующую строку для обновления initrd для каждого соответствующего ядра, которое существует в вашей системе:
sudo update-initramfs -k all -u
У меня была та же проблема.
Это решение решило мою проблему: http://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/
Мне удалось воспроизвести проблему следующим образом:
Когда «Software Updater» спросил, хочу ли я обновить пакеты (включая базу Ubuntu »и ядро, я ответил: ОК. Недавно установленное ядро использовалось Настройки текущего ядра / системы. Затем я создал массив. Только текущее работающее ядро обновилось новыми настройками RAID. После перезагрузки новое ядро ничего не знало о рейде и присвоило ему имя md127!
sudo update-initramfs -u
было все, что мне нужно, чтобы это исправить. Я ничего не редактировал в /etc/mdadm/mdadm.conf.