Совершите рейд на 1 отказавшее, диск не в mdadm.conf

У меня есть причудливая проблема и все страницы, которые я искал, не вполне соответствуют моей проблеме.

В основном я не могу получить доступ к своему маленькому набегу 1 массив, который включает два WD на 1 ТБ Красные диски (sdb и sdc в проверке fdisk ниже).

Вот обычные проверки (если я пропускаю тот, сообщенный мне):

fdisk необходимо будет, вероятно, прокрутить поле ниже для наблюдения всего этого, также я понятия не имею, каковы все циклы...

$> sudo fdisk -l
Disk /dev/loop0: 140.7 MiB, 147496960 bytes, 288080 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop1: 13 MiB, 13619200 bytes, 26600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop2: 3.7 MiB, 3878912 bytes, 7576 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop3: 91 MiB, 95408128 bytes, 186344 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop4: 2.3 MiB, 2355200 bytes, 4600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop5: 14.5 MiB, 15208448 bytes, 29704 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop6: 34.6 MiB, 36216832 bytes, 70736 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop7: 88.5 MiB, 92778496 bytes, 181208 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sda: 223.6 GiB, 240057409536 bytes, 468862128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 28352AE2-4322-4627-9BE2-DFBEDBAFF1BF

Device       Start       End   Sectors   Size Type
/dev/sda1     2048   1050623   1048576   512M EFI System
/dev/sda2  1050624 468860927 467810304 223.1G Linux filesystem


GPT PMBR size mismatch (1953519879 != 1953525167) will be corrected by w(rite).
Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 84416481-C343-40E7-A8EB-3680B26FEF19

Device     Start        End    Sectors   Size Type
/dev/sdb1   2048 1953519615 1953517568 931.5G Linux filesystem


GPT PMBR size mismatch (1953519879 != 1953525167) will be corrected by w(rite).
Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 84416481-C343-40E7-A8EB-3680B26FEF19

Device     Start        End    Sectors   Size Type
/dev/sdc1   2048 1953519615 1953517568 931.5G Linux filesystem


Disk /dev/sdd: 119.2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 4A8AA6CA-61E4-43A2-B616-EAD50214A106

Device      Start      End  Sectors  Size Type
/dev/sdd1    2048   999423   997376  487M EFI System
/dev/sdd2  999424 17000447 16001024  7.6G Linux swap


GPT PMBR size mismatch (1953519879 != 1953519615) will be corrected by w(rite).
Disk /dev/md126: 931.5 GiB, 1000202043392 bytes, 1953519616 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00000000

Device       Boot Start        End    Sectors   Size Id Type
/dev/md126p1          1 1953519879 1953519879 931.5G ee GPT

Partition 1 does not start on physical sector boundary.

mdstat

$> cat /proc/mdstat 
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active (auto-read-only) raid1 sdb[1] sdc[0]
      976759808 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sdc[1](S) sdb[0](S)
      5552 blocks super external:imsm

unused devices: <none>

mdadm.conf

$> sudo cat /etc/mdadm/mdadm.conf 
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY metadata=imsm UUID=fe0bb25b:d021df67:4d7fe09f:a30a6e08
ARRAY /dev/md/Volume1 container=fe0bb25b:d021df67:4d7fe09f:a30a6e08 member=0 UUID=3d2e36ef:e2314e97:11933fe5:f38135b1
ARRAY /dev/md/0  metadata=1.2 UUID=7d7acef8:cde50639:d9c04370:fbf727c6 name=chugster:0

# This configuration was auto-generated on Wed, 07 Aug 2019 00:10:23 +0100 by mkconf

mdadm-E/dev/sdb

$> sudo mdadm -E /dev/sdb
/dev/sdb:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.1.00
    Orig Family : c1155891
         Family : c1155891
     Generation : 000000d2
     Attributes : All supported
           UUID : fe0bb25b:d021df67:4d7fe09f:a30a6e08
       Checksum : 03482b05 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : WD-WXV1E74D9L1F
          State : active
             Id : 00000002
    Usable Size : 1953519616 (931.51 GiB 1000.20 GB)

[Volume1]:
           UUID : 3d2e36ef:e2314e97:11933fe5:f38135b1
     RAID Level : 1
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
    Sector Size : 512
     Array Size : 1953519616 (931.51 GiB 1000.20 GB)
   Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
  Sector Offset : 0
    Num Stripes : 7630936
     Chunk Size : 64 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk01 Serial : WD-WXV1E747PDZD
          State : active
             Id : 00000003
    Usable Size : 1953519616 (931.51 GiB 1000.20 GB)

mdadm-E/dev/sdc

$> sudo mdadm -E /dev/sdc
/dev/sdc:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.1.00
    Orig Family : c1155891
         Family : c1155891
     Generation : 000000d2
     Attributes : All supported
           UUID : fe0bb25b:d021df67:4d7fe09f:a30a6e08
       Checksum : 03482b05 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : WD-WXV1E747PDZD
          State : active
             Id : 00000003
    Usable Size : 1953519616 (931.51 GiB 1000.20 GB)

[Volume1]:
           UUID : 3d2e36ef:e2314e97:11933fe5:f38135b1
     RAID Level : 1
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
    Sector Size : 512
     Array Size : 1953519616 (931.51 GiB 1000.20 GB)
   Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
  Sector Offset : 0
    Num Stripes : 7630936
     Chunk Size : 64 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk00 Serial : WD-WXV1E74D9L1F
          State : active
             Id : 00000002
    Usable Size : 1953519616 (931.51 GiB 1000.20 GB)

mdadm детализируют сканирование

$> sudo mdadm --detail --scan
ARRAY /dev/md/imsm0 metadata=imsm UUID=fe0bb25b:d021df67:4d7fe09f:a30a6e08
ARRAY /dev/md/Volume1 container=/dev/md/imsm0 member=0 UUID=3d2e36ef:e2314e97:11933fe5:f38135b1

Таким образом, так же мало фона, sdc перестал работать с недостающим суперблоком, но я считал что-то где-нибудь, которое позволило мне "исправлять" sdc использование uuid sdb. Так, теперь "mdadm-E/dev/sdc" информация о шоу вместо того, чтобы говорить суперблок отсутствует. Я не уверен, является ли то, что я сделал, правильным поступком.

Если я пытаюсь собрать набег, он говорит, что/dev/md127 не существует в mdadm.conf. Если я пытаюсь повторно создать mdadm.conf, то он не добавляет/dev/md127.

В основном я понятия не имею, как повторно собрать набег, или почему он перестал работать во-первых. Дисковая утилита говорит, что оба из дисков в порядке.

Если все остальное перестало работать, я могу удалить md127 из массива, смонтировать массив с одним диском (md126), удалить все разделы на том, что в настоящее время sdc, и затем добавьте его назад к массиву?

Ваша справка очень ценится.

Andrew

Отредактируйте 1, Это может также помочь знать, что все это произошло, когда я переустановил ОС - для движения от 14,4 до 18,4.

Редактирование 2

Я только что заметил, что могу исследовать sdb1, но не sdc1:

$> sudo mdadm --examine /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 7d7acef8:cde50639:d9c04370:fbf727c6
           Name : chugster:0  (local to host chugster)
  Creation Time : Tue Aug  6 23:38:40 2019
     Raid Level : linear
   Raid Devices : 2

 Avail Dev Size : 1953253376 (931.38 GiB 1000.07 GB)
  Used Dev Size : 0
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=0 sectors
          State : clean
    Device UUID : beeda35f:a7c7f529:33e2c551:4bc87bfc

    Update Time : Tue Aug  6 23:38:40 2019
  Bad Block Log : 512 entries available at offset 8 sectors
       Checksum : f2302886 - correct
         Events : 0

       Rounding : 0K

   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)


$> sudo mdadm --examine /dev/sdc1
mdadm: cannot open /dev/sdc1: No such file or directory

Я думаю, что что-то серьезно испорчено с/dev/sdc. Я не уверен, как удалить/dev/sdc из массива, учитывая, что/dev/sdc1 не существует. Также я предполагаю, что удаляю его из md127, но это не чувствует себя хорошо, возможно, я должен пытаться удалить его из/dev/md/Volume1? Другая вещь, которая касается меня, состоит в том, что/proc/mdstat предполагает, что суперблок для md126 находится на md127, или я читаю ту несправедливость?

Отредактируйте 3 Сделанных исправление

4
задан 7 August 2019 в 16:53

1 ответ

Я действительно ненавижу поддельный набег. Это - функция HW, что пользователи гравитируют к тому, потому что они приравнивают HW == лучше, где все это, который это действительно делает, усложняют Вашу установку устройства хранения данных и делают это более хрупким. Единственные вопросы набега фальшивки времени - когда Вы хотите к двойной загрузке и совместно используете тот же объем между несколькими операционными системами. Иначе убежавший от него как он - эпидемия.

Вещь, которая действительно выделяется мне, состоит в том, что у Вас есть разделы, которые отмечены с файловой системой, которые, кажется, охватывают весь диск, все же Вы присваиваете все блочное устройство RAID. Это - то, как Вы повреждаете данные. Это, возможно, стало смонтированным в какой-то момент, или fsck был выполнен на нем при начальной загрузке, которая "восстановила его", и именно тогда Ваш суперблок был поврежден.

Хорошо делить диски, которые присвоены RAID, просто удостоверьтесь, что Вы отмечаете их как тип FD (автоматическое обнаружение набега Linux), таким образом, этих видов коллизий не происходит. Файловая система идет на устройство MD.

В этой точке. Я загрузился бы от диска USB. Принесите массив онлайн. Насильственно удалите "sdc", dd вся вещь с нулями, и затем добавьте его назад к массиву для полной пересинхронизации.

Или только запустите. Вы сказали, что у Вас есть резервное копирование. демонтируйте массив, обнулите суперблоки или просто dd, если =/dev/zero =/... и на этот раз просто используют md, никакой поддельный набег. Я советую создать единственный раздел на каждом диске, который охватывает все пространство, и отметьте его как FD, таким образом, этого не происходит снова.

https://www.tecmint.com/create-raid1-in-linux/

Удачи.

Примечание стороны относительно поддельного набега. https://www.intel.com/content/dam/www/public/us/en/documents/white-papers/rst-linux-paper.pdf

"Рекомендуемой Реализацией RAID программного обеспечения в Linux* является MD с открытым исходным кодом пакет RAID. Intel улучшил MD RAID для поддержки метаданных RST и OROM, и он проверяется и поддерживается Intel для серверных платформ. Существует растущий интерес в OEMs в наличии Intel, расширяют проверку и поддержку RST на мобильном, настольном и платформах рабочей станции в среде двойной загрузки Windows и Linux"

Который читает "поставщиков HW, ленивы и не хотят иметь дело с операционными системами, таким образом, они хотят предварительно создать системы 'с RAID' и притвориться, что они увеличили стоимость для клиента"

0
ответ дан 1 December 2019 в 10:57

Другие вопросы по тегам:

Похожие вопросы: