У меня Ubuntu 16.04.4 LTS У меня есть набор идентичных жестких дисков. Я создал массив raid 1, но я не могу его монтировать.
cat /proc/mdstat
md126 : active raid1 sde[1] sdd[0]
24412992 blocks super 1.2 [2/2] [UU]
mdadm --detail /dev/md126
/dev/md126:
Version : 1.2
Creation Time : Mon Apr 16 12:20:39 2018
Raid Level : raid1
Array Size : 24412992 (23.28 GiB 25.00 GB)
Used Dev Size : 24412992 (23.28 GiB 25.00 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed May 9 23:08:47 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : kat1:raidarray3 (local to host kat1)
UUID : 5da485b7:9aed668a:053cec83:88179e15
Events : 21
Number Major Minor RaidDevice State
0 8 48 0 active sync /dev/sdd
1 8 64 1 active sync /dev/sde
После инициализации я выдал команду:
sudo mkfs.ext4 -F /dev/md126
, затем
sudo mount /dev/md126 /mnt/raid_23G
без отображения ошибки, массив raid не отображается на df -h
root@kat1:/mnt# sudo mount /dev/md126 /mnt/raid_23G
root@kat1:/mnt#
root@kat1:/mnt# sudo umount /dev/md126
umount: /dev/md126: not mounted
root@kat1:/mnt# fsck /dev/md126
fsck from util-linux 2.27.1
e2fsck 1.42.13 (17-May-2015)
/dev/md126: clean, 11/1525920 files, 139793/6103248 blocks
#ls /dev/md126*
/dev/md126
/mnt# ls -la
total 28
drwxr-xr-x 7 root root 4096 Apr 16 12:22 .
drwxr-xr-x 23 root root 4096 Apr 15 17:52 ..
drwxr-xr-x 2 root root 4096 Apr 16 12:15 backup_raid
drwxr-xr-x 5 root root 4096 Apr 23 16:20 md0
drwxr-xr-x 2 root root 4096 Apr 16 12:22 raid_23G
drwxr-xr-x 2 root root 4096 Apr 16 12:22 raid_587G
drwxr-xr-x 4 root root 4096 Apr 15 23:40 Store
, поэтому каталог существует, и нет / dev / md126p1
Большое спасибо за вашу помощь, вывод запрошенной команды следующий:
root@kat1-kvm:/# sudo blkid
/dev/sda1: UUID="0f62bf49-d7b4-444b-9229-093b902c4f35" TYPE="ext2" PARTUUID="7dcd7eef-01"
/dev/sda5: UUID="kwwylr-xhGI-lGu0-vEDf-n1RV-BBep-MAdn10" TYPE="LVM2_member" PARTUUID="7dcd7eef-05"
/dev/md127: UUID="ea8d8ae6-2dea-494a-9283-926f29209b77" TYPE="ext4"
/dev/sdb: UUID="d07f60aa-3e50-937d-2cb6-0265baf86362" UUID_SUB="9812be8a-845b-01b6-ac13-93d983f6ce60" LABEL="kat1-kvm:raidarray2" TYPE="linux_raid_member"
/dev/sdc: UUID="d07f60aa-3e50-937d-2cb6-0265baf86362" UUID_SUB="16b50f6a-fed4-1985-c66a-fa487e42a968" LABEL="kat1-kvm:raidarray2" TYPE="linux_raid_member"
/dev/sdd: UUID="5da485b7-9aed-668a-053c-ec8388179e15" UUID_SUB="ab6f9b08-5ee6-b974-fbf1-f0401f4d0ab6" LABEL="kat1-kvm:raidarray3" TYPE="linux_raid_member"
/dev/sde: UUID="5da485b7-9aed-668a-053c-ec8388179e15" UUID_SUB="56e87833-2c7b-dbf8-5b53-582fc6e6bde6" LABEL="kat1-kvm:raidarray3" TYPE="linux_raid_member"
/dev/sdf: UUID="c28036d1-57b2-62d9-6188-5187f0b3a099" UUID_SUB="8168786f-9528-3ae8-dd3c-3e24df3b275c" LABEL="kat1-kvm:raidarray" TYPE="linux_raid_member"
/dev/sdg: UUID="c28036d1-57b2-62d9-6188-5187f0b3a099" UUID_SUB="02a8529c-e62c-25e1-8654-358371cf5ede" LABEL="kat1-kvm:raidarray" TYPE="linux_raid_member"
/dev/sdh1: LABEL="Store" UUID="d3521cce-65f7-4914-8476-15a3058368da" TYPE="ext4" PARTLABEL="Store" PARTUUID="833db700-d7ea-4307-b57b-7c61c9772840"
/dev/md0: UUID="40110e88-2ed2-49f7-b5d0-8353a1feacd3" TYPE="ext4"
/dev/md126: UUID="904d39f9-6c1b-462d-a841-614c1ba8c9d8" TYPE="ext4"
/dev/mapper/kat1--kvm--vg-root: UUID="e5d8c7d5-04bd-4596-9e4f-73bc010151b9" TYPE="ext4"
/dev/mapper/kat1--kvm--vg-swap_1: UUID="b6069bbf-9f87-4c5c-9034-838c37af0290" TYPE="swap"
, чтобы быть ясным, этот сервер имеет несколько дисков, 3 набора одинаковых дисков (для трех рейдов 1 групп) и 2 отдельных. Первая группа рейдов работает нормально и доступно, как видно из предыдущей информации о сообщении (md0), остальные две отказываются монтировать, хотя mdstat говорит, что рейд в порядке.
Я потерялся.
Я выполнил вашу ссылку и предоставил команду
sudo update-initramfs -u
, которая фактически решила проблему, теперь все правильно смонтировано. Я понятия не имею, что именно но я так благодарен вам за то, что вы нашли время. Я за ваш долг
Я постараюсь изо всех сил помочь в этом ответе. У меня есть аналогичная настройка, но у меня есть 2x500GB RAID 1 для загрузки и ОС. Затем у меня есть конфигурация 5x4TB RAID 5.
После того, как мои массивы были созданы, я обнаружил, что мне не нравятся имена /dev/md*, которые они отображали, так что я изменил их. Я не знаю, действительно ли это будет иметь большое значение, но это может быть.
В файле /etc/mdadm/mdadm.conf я нашел строку для моей конфигурации RAID5. Это выглядело так:
ARRAY /dev/md/1 metadata=1.2 UUID=3bb988cb:d5270497:36e75f46:67a9bc65 name=Intrepid:1
У вас будет UUID = 5da485b7: 9aed668a: 053cec83: 88179e15 в строке.
Но мое соглашение об именах было другим. Поэтому я заменил строку на это:
ARRAY /dev/md1 metadata=1.2 UUID=3bb988cb:d5270497:36e75f46:67a9bc65
После изменения я побежал
sudo update-initramfs -u
Возможно, вы захотите также увидеть этот ответ, потому что у вас также есть /dev/md127 показывает: Почему мой RAID / dev / md1 отображается как / dev / md126? Не игнорируется mdadm.conf?
Затем перезагрузился хост. После перезагрузки cat /proc/mdstat теперь выглядит так:
md1 : active raid5 sdi1[5] sdh1[3] sdg1[2] sdf1[1] sde1[0]
15627542528 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
bitmap: 0/30 pages [0KB], 65536KB chunk
Затем я запустил sudo blkid, и я получил это для этого /dev/md1
. На самом деле у меня был раздел, созданный на нем, так что он появился следующим образом:
/dev/md1p1: UUID="a50fd553-b143-4ad8-bdb1-2247d9349e86" TYPE="ext4" PARTUUID="19a0b3cb-03f0-4a7c-b562-3537b3046365"
Я хотел, чтобы один монтировался на моем монте /media/storage, поэтому я поместил его в свой файл /etc/fstab в качестве этой строки:
UUID=a50fd553-b143-4ad8-bdb1-2247d9349e86 /media/storage ext4 defaults 0 0
Как вы можете видеть совпадения UUID в fstab, а также blkid. После того, как он был добавлен и сохранен, все, что мне нужно было запустить, чтобы он был установлен здесь без перезагрузки, был:
sudo mount -a
Надеюсь, что это поможет!
Я постараюсь изо всех сил помочь в этом ответе. У меня есть аналогичная настройка, но у меня есть 2x500GB RAID 1 для загрузки и ОС. Затем у меня есть конфигурация 5x4TB RAID 5.
После того, как мои массивы были созданы, я обнаружил, что мне не нравятся имена /dev/md*, которые они отображали, так что я изменил их. Я не знаю, действительно ли это будет иметь большое значение, но это может быть.
В файле /etc/mdadm/mdadm.conf я нашел строку для моей конфигурации RAID5. Это выглядело так:
ARRAY /dev/md/1 metadata=1.2 UUID=3bb988cb:d5270497:36e75f46:67a9bc65 name=Intrepid:1
У вас будет UUID = 5da485b7: 9aed668a: 053cec83: 88179e15 в строке.
Но мое соглашение об именах было другим. Поэтому я заменил строку на это:
ARRAY /dev/md1 metadata=1.2 UUID=3bb988cb:d5270497:36e75f46:67a9bc65
После изменения я побежал
sudo update-initramfs -u
Возможно, вы захотите также увидеть этот ответ, потому что у вас также есть /dev/md127 показывает: Почему мой RAID / dev / md1 отображается как / dev / md126? Не игнорируется mdadm.conf?
Затем перезагрузился хост. После перезагрузки cat /proc/mdstat теперь выглядит так:
md1 : active raid5 sdi1[5] sdh1[3] sdg1[2] sdf1[1] sde1[0]
15627542528 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
bitmap: 0/30 pages [0KB], 65536KB chunk
Затем я запустил sudo blkid, и я получил это для этого /dev/md1
. На самом деле у меня был раздел, созданный на нем, так что он появился следующим образом:
/dev/md1p1: UUID="a50fd553-b143-4ad8-bdb1-2247d9349e86" TYPE="ext4" PARTUUID="19a0b3cb-03f0-4a7c-b562-3537b3046365"
Я хотел, чтобы один монтировался на моем монте /media/storage, поэтому я поместил его в свой файл /etc/fstab в качестве этой строки:
UUID=a50fd553-b143-4ad8-bdb1-2247d9349e86 /media/storage ext4 defaults 0 0
Как вы можете видеть совпадения UUID в fstab, а также blkid. После того, как он был добавлен и сохранен, все, что мне нужно было запустить, чтобы он был установлен здесь без перезагрузки, был:
sudo mount -a
Надеюсь, что это поможет!