Как повторно добавить сброшенный диск RAID-10? [закрыто]

, у меня возникает проблема, которую я не могу решить. У нас есть сервер Ubuntu с RAID-10, и два диска выпали из массива. Когда я пытаюсь повторно добавить их, используя следующую команду:

mdadm --manage --re-add /dev/md2 /dev/sdc1

, я получаю следующее сообщение об ошибке:

mdadm: Cannot open /dev/sdc1: Device or resource busy

Когда я выполняю "cat / proc / mdstat", я получаю следующее:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [r$
md2 : active raid10 sdb1[0] sdd1[3]
    1953519872 blocks 64K chunks 2 near-copies [4/2] [U__U]

md1 : active raid1 sda2[0] sdc2[1]
    468853696 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdc1[1]
    19530688 blocks [2/2] [UU]

unused devices: <none>

Когда я запускаю "/ sbin / mdadm --detail / dev / md2 "Я получаю следующее:

/dev/md2:
    Version : 00.90
Creation Time : Mon Sep  5 23:41:13 2011
   Raid Level : raid10
   Array Size : 1953519872 (1863.02 GiB 2000.40 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
  Raid Devices : 4
  Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistent

Update Time : Thu Oct 25 09:25:08 2012
      State : active, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

     Layout : near=2, far=1
Chunk Size : 64K

       UUID : c6d87d27:aeefcb2e:d4453e2e:0b7266cb
     Events : 0.6688691

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   1       0        0        1      removed
   2       0        0        2      removed
   3       8       49        3      active sync   /dev/sdd1

Вывод команды df -h:

Filesystem            Size  Used Avail Use% Mounted on
/dev/md1              441G  2.0G  416G   1% /
none                   32G  236K   32G   1% /dev
tmpfs                  32G     0   32G   0% /dev/shm
none                   32G  112K   32G   1% /var/run
none                   32G     0   32G   0% /var/lock
none                   32G     0   32G   0% /lib/init/rw
tmpfs                  64G  215M   63G   1% /mnt/vmware
none                  441G  2.0G  416G   1% /var/lib/ureadahead/debugfs
/dev/mapper/RAID10VG-RAID10LV
                  1.8T  139G  1.6T   8% /mnt/RAID10

Когда я выполняю" fdisk -l ", я вижу все диски, необходимые для RAID-10. .

RAID-10 является частью / dev / mapper. Может ли это быть причиной того, что устройство снова занято? У кого-нибудь есть предложения по поводу того, что я могу попытаться вернуть диски в массив?

Любая помощь будет принята с благодарностью.

Спасибо!

0
задан 25 October 2012 в 19:46

1 ответ

Тупой вопрос, извините. Мне кажется, что два диска, которые выпали, на самом деле по какой-то причине не монтируются, возможно, неисправны.

0
ответ дан 25 October 2012 в 19:46

Другие вопросы по тегам:

Похожие вопросы: