RAID-массив не повторно собирается после перезагрузки

RAID-массив не собирается после перезагрузки.

У меня есть один SSD, от которого система загружается, и три жестких диска, которые являются частью массива. Системой является Ubuntu 16.04.

Шаги, которые я выполнил, базируются главным образом на этом руководстве:

https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-16-04#creating-a-raid-5-array

  1. Проверка, если я хорош для движения.

    lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
    

Вывод показывает sda, sdb, и sdc устройства помимо разделов SSD. Я проверил, представляют ли они на самом деле жесткие диски путем рассмотрения вывода этого:

hwinfo --disk

Все соответствует.

  1. Сборка массива.

    sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc
    

Я проверяю, смотрит ли это хорошо путем ввода: кошка/proc/mdstat

Вывод выглядит примерно так:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[3] sdb[1] sda[0]
      7813774336 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [=======>.............]  recovery = 37.1% (1449842680/3906887168) finish=273.8min speed=149549K/sec
      bitmap: 0/30 pages [0KB], 65536KB chunk

unused devices: <none>

Я ожидаю, пока процесс не заканчивается.

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sdc[3] sdb[1] sda[0]
      209584128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>
  1. Создание и монтирование файловой системы.

    sudo mkfs.ext4 -F /dev/md0
    
    sudo mkdir -p /mnt/md0
    
    sudo mount /dev/md0 /mnt/md0
    
    df -h -x devtmpfs -x tmpfs
    

Я вставил некоторые данные, и вывод похож на это:

Filesystem      Size  Used Avail Use% Mounted on
/dev/nvme0n1p2  406G  191G  196G  50% /
/dev/nvme0n1p1  511M  3.6M  508M   1% /boot/efi
/dev/md0        7.3T  904G  6.0T  13% /mnt/md0
  1. Сохранение расположения массива.

    sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
    
    sudo update-initramfs -u
    
    echo '/dev/md0 /mnt/md0 ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab
    
  2. Перезагрузка и проверка, работает ли все правильно.

После перезагрузки я пробую: кошка/proc/mdstat
Это не показывает активных устройств набега.

ls /mnt/md0 

пусто.

Следующая команда ничего не печатает и не работает также:

mdadm --assemble --scan -v

Только следующие восстановления массив с данными по нему:

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc

Что должно быть сделано по-другому?

Дополнительный, вероятно, полезная информация:

sudo dpkg-reconfigure mdadm

Выходные шоу:

update-initramfs: deferring update (trigger activated)
Generating grub configuration file ...
Warning: Setting GRUB_TIMEOUT to a non-zero value when GRUB_HIDDEN_TIMEOUT is set is no longer supported.
Found linux image: /boot/vmlinuz-4.4.0-51-generic
Found initrd image: /boot/initrd.img-4.4.0-51-generic
Found linux image: /boot/vmlinuz-4.4.0-31-generic
Found initrd image: /boot/initrd.img-4.4.0-31-generic
Adding boot menu entry for EFI firmware configuration
done
update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults
Processing triggers for initramfs-tools (0.122ubuntu8.5) ...
update-initramfs: Generating /boot/initrd.img-4.4.0-51-generic

Интригующая часть для меня, "запускаются и останавливаются, действия больше не поддерживаются; отступание к значениям по умолчанию"

Также вывод/usr/share/mdadm/mkconf не печатает массивов в конце.

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR craftinity@craftinity.com

# definitions of existing MD arrays

тогда как вывод кошки/etc/mdadm/mdadm.conf делает.

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# DEVICE /dev/sda /dev/sdb /dev/sdc

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR craftinity@craftinity.com

# definitions of existing MD arrays

# This file was auto-generated on Sun, 04 Dec 2016 18:56:42 +0100
# by mkconf $Id$

ARRAY /dev/md0 metadata=1.2 spares=1 name=hinton:0 UUID=616991f1:dc03795b:8d09b1d4:8393060a

Каково решение? Я просмотрел половину Интернета, и ни у кого, кажется, нет той же проблемы.

Я также добавил тот же самый вопрос на serverfault несколько дней назад (никакой ответ). Я приношу извинения, если я нарушил стек постановления ЕЭС биржи путем выполнения этого.

7
задан 14 December 2016 в 10:36

3 ответа

У меня была та же проблема, я не уверен, но работа в, я нашел, должен был создать новые разделы на участниках набега типа Набег LINUX и затем при создании массива, я использовал раздел вместо того, чтобы использовать устройство.

3
ответ дан 23 November 2019 в 06:44

Я не мог воспроизвести Вашу точную проблему, но я думаю, что нашел возможную причину для поведения Вашей системы:

, Когда Вы создаете 3 диска массив RAID5 с командой:

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc

, В то время как устройство RAID находится в восстановлении, шоу команды сканирования mdadm:

sudo mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=1 name=desktop:0 UUID=da60c69a:1cbe4f2e:e83d0971:0520ac89

После того, как процесс восстановления завершается, spares=1, параметра не стало:

sudo mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 name=desktop:0 UUID=da60c69a:1cbe4f2e:e83d0971:0520ac89

я принимаю, та повторная сборка 3 чтения с диска с spares=1, параметр перестанет работать на полностью восстановленном программном обеспечении RAID5, начиная с Вас, don’t больше экономили диски. При попытке собрать RAID со следующей командой, то это перестанет работать:

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sda /dev/sdb /dev/sdc

и следующая команда создаст другое расположение RAID:

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=2 --spare-devices=1 /dev/sda /dev/sdb /dev/sdc

На другой ноте: Если Вы, которых don’t должен загрузить от RAID5, нет никакой потребности добавить конфигурацию к /etc/mdadm/mdadm.conf файл. Ubuntu автоматически запустит RAID, так как конфигурация доступна в суперблоке RAID.

2
ответ дан 23 November 2019 в 06:44

Это кажется, это - настоящая типичная проблема при использовании целых дисков в массиве.

Это сообщение дает последнюю сводку проблемы и как я решил его: mdadm RAID, лежащий в основе LVM перезагрузка, за которой следуют,

Это сообщение помогло мне понять и решить свою проблему: что является различием между созданием mdadm массив с помощью разделов или целых дисков непосредственно

0
ответ дан 23 November 2019 в 06:44

Другие вопросы по тегам:

Похожие вопросы: