У меня есть причудливая проблема и все страницы, которые я искал, не вполне соответствуют моей проблеме.
В основном я не могу получить доступ к своему маленькому набегу 1 массив, который включает два WD на 1 ТБ Красные диски (sdb и sdc в проверке fdisk ниже).
Вот обычные проверки (если я пропускаю тот, сообщенный мне):
fdisk необходимо будет, вероятно, прокрутить поле ниже для наблюдения всего этого, также я понятия не имею, каковы все циклы...
$> sudo fdisk -l
Disk /dev/loop0: 140.7 MiB, 147496960 bytes, 288080 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop1: 13 MiB, 13619200 bytes, 26600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop2: 3.7 MiB, 3878912 bytes, 7576 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop3: 91 MiB, 95408128 bytes, 186344 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop4: 2.3 MiB, 2355200 bytes, 4600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop5: 14.5 MiB, 15208448 bytes, 29704 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop6: 34.6 MiB, 36216832 bytes, 70736 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop7: 88.5 MiB, 92778496 bytes, 181208 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/sda: 223.6 GiB, 240057409536 bytes, 468862128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 28352AE2-4322-4627-9BE2-DFBEDBAFF1BF
Device Start End Sectors Size Type
/dev/sda1 2048 1050623 1048576 512M EFI System
/dev/sda2 1050624 468860927 467810304 223.1G Linux filesystem
GPT PMBR size mismatch (1953519879 != 1953525167) will be corrected by w(rite).
Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 84416481-C343-40E7-A8EB-3680B26FEF19
Device Start End Sectors Size Type
/dev/sdb1 2048 1953519615 1953517568 931.5G Linux filesystem
GPT PMBR size mismatch (1953519879 != 1953525167) will be corrected by w(rite).
Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 84416481-C343-40E7-A8EB-3680B26FEF19
Device Start End Sectors Size Type
/dev/sdc1 2048 1953519615 1953517568 931.5G Linux filesystem
Disk /dev/sdd: 119.2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 4A8AA6CA-61E4-43A2-B616-EAD50214A106
Device Start End Sectors Size Type
/dev/sdd1 2048 999423 997376 487M EFI System
/dev/sdd2 999424 17000447 16001024 7.6G Linux swap
GPT PMBR size mismatch (1953519879 != 1953519615) will be corrected by w(rite).
Disk /dev/md126: 931.5 GiB, 1000202043392 bytes, 1953519616 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type
/dev/md126p1 1 1953519879 1953519879 931.5G ee GPT
Partition 1 does not start on physical sector boundary.
mdstat
$> cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active (auto-read-only) raid1 sdb[1] sdc[0]
976759808 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sdc[1](S) sdb[0](S)
5552 blocks super external:imsm
unused devices: <none>
mdadm.conf
$> sudo cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY metadata=imsm UUID=fe0bb25b:d021df67:4d7fe09f:a30a6e08
ARRAY /dev/md/Volume1 container=fe0bb25b:d021df67:4d7fe09f:a30a6e08 member=0 UUID=3d2e36ef:e2314e97:11933fe5:f38135b1
ARRAY /dev/md/0 metadata=1.2 UUID=7d7acef8:cde50639:d9c04370:fbf727c6 name=chugster:0
# This configuration was auto-generated on Wed, 07 Aug 2019 00:10:23 +0100 by mkconf
mdadm-E/dev/sdb
$> sudo mdadm -E /dev/sdb
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : c1155891
Family : c1155891
Generation : 000000d2
Attributes : All supported
UUID : fe0bb25b:d021df67:4d7fe09f:a30a6e08
Checksum : 03482b05 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk00 Serial : WD-WXV1E74D9L1F
State : active
Id : 00000002
Usable Size : 1953519616 (931.51 GiB 1000.20 GB)
[Volume1]:
UUID : 3d2e36ef:e2314e97:11933fe5:f38135b1
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Sector Size : 512
Array Size : 1953519616 (931.51 GiB 1000.20 GB)
Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 7630936
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
RWH Policy : off
Disk01 Serial : WD-WXV1E747PDZD
State : active
Id : 00000003
Usable Size : 1953519616 (931.51 GiB 1000.20 GB)
mdadm-E/dev/sdc
$> sudo mdadm -E /dev/sdc
/dev/sdc:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : c1155891
Family : c1155891
Generation : 000000d2
Attributes : All supported
UUID : fe0bb25b:d021df67:4d7fe09f:a30a6e08
Checksum : 03482b05 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk01 Serial : WD-WXV1E747PDZD
State : active
Id : 00000003
Usable Size : 1953519616 (931.51 GiB 1000.20 GB)
[Volume1]:
UUID : 3d2e36ef:e2314e97:11933fe5:f38135b1
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 1
Sector Size : 512
Array Size : 1953519616 (931.51 GiB 1000.20 GB)
Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 7630936
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
RWH Policy : off
Disk00 Serial : WD-WXV1E74D9L1F
State : active
Id : 00000002
Usable Size : 1953519616 (931.51 GiB 1000.20 GB)
mdadm детализируют сканирование
$> sudo mdadm --detail --scan
ARRAY /dev/md/imsm0 metadata=imsm UUID=fe0bb25b:d021df67:4d7fe09f:a30a6e08
ARRAY /dev/md/Volume1 container=/dev/md/imsm0 member=0 UUID=3d2e36ef:e2314e97:11933fe5:f38135b1
Таким образом, так же мало фона, sdc перестал работать с недостающим суперблоком, но я считал что-то где-нибудь, которое позволило мне "исправлять" sdc использование uuid sdb. Так, теперь "mdadm-E/dev/sdc" информация о шоу вместо того, чтобы говорить суперблок отсутствует. Я не уверен, является ли то, что я сделал, правильным поступком.
Если я пытаюсь собрать набег, он говорит, что/dev/md127 не существует в mdadm.conf. Если я пытаюсь повторно создать mdadm.conf, то он не добавляет/dev/md127.
В основном я понятия не имею, как повторно собрать набег, или почему он перестал работать во-первых. Дисковая утилита говорит, что оба из дисков в порядке.
Если все остальное перестало работать, я могу удалить md127 из массива, смонтировать массив с одним диском (md126), удалить все разделы на том, что в настоящее время sdc, и затем добавьте его назад к массиву?
Ваша справка очень ценится.
Andrew
Отредактируйте 1, Это может также помочь знать, что все это произошло, когда я переустановил ОС - для движения от 14,4 до 18,4.
Редактирование 2
Я только что заметил, что могу исследовать sdb1, но не sdc1:
$> sudo mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 7d7acef8:cde50639:d9c04370:fbf727c6
Name : chugster:0 (local to host chugster)
Creation Time : Tue Aug 6 23:38:40 2019
Raid Level : linear
Raid Devices : 2
Avail Dev Size : 1953253376 (931.38 GiB 1000.07 GB)
Used Dev Size : 0
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=0 sectors
State : clean
Device UUID : beeda35f:a7c7f529:33e2c551:4bc87bfc
Update Time : Tue Aug 6 23:38:40 2019
Bad Block Log : 512 entries available at offset 8 sectors
Checksum : f2302886 - correct
Events : 0
Rounding : 0K
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
$> sudo mdadm --examine /dev/sdc1
mdadm: cannot open /dev/sdc1: No such file or directory
Я думаю, что что-то серьезно испорчено с/dev/sdc. Я не уверен, как удалить/dev/sdc из массива, учитывая, что/dev/sdc1 не существует. Также я предполагаю, что удаляю его из md127, но это не чувствует себя хорошо, возможно, я должен пытаться удалить его из/dev/md/Volume1? Другая вещь, которая касается меня, состоит в том, что/proc/mdstat предполагает, что суперблок для md126 находится на md127, или я читаю ту несправедливость?
Отредактируйте 3 Сделанных исправление
Я действительно ненавижу поддельный набег. Это - функция HW, что пользователи гравитируют к тому, потому что они приравнивают HW == лучше, где все это, который это действительно делает, усложняют Вашу установку устройства хранения данных и делают это более хрупким. Единственные вопросы набега фальшивки времени - когда Вы хотите к двойной загрузке и совместно используете тот же объем между несколькими операционными системами. Иначе убежавший от него как он - эпидемия.
Вещь, которая действительно выделяется мне, состоит в том, что у Вас есть разделы, которые отмечены с файловой системой, которые, кажется, охватывают весь диск, все же Вы присваиваете все блочное устройство RAID. Это - то, как Вы повреждаете данные. Это, возможно, стало смонтированным в какой-то момент, или fsck был выполнен на нем при начальной загрузке, которая "восстановила его", и именно тогда Ваш суперблок был поврежден.
Хорошо делить диски, которые присвоены RAID, просто удостоверьтесь, что Вы отмечаете их как тип FD (автоматическое обнаружение набега Linux), таким образом, этих видов коллизий не происходит. Файловая система идет на устройство MD.
В этой точке. Я загрузился бы от диска USB. Принесите массив онлайн. Насильственно удалите "sdc", dd вся вещь с нулями, и затем добавьте его назад к массиву для полной пересинхронизации.
Или только запустите. Вы сказали, что у Вас есть резервное копирование. демонтируйте массив, обнулите суперблоки или просто dd, если =/dev/zero =/... и на этот раз просто используют md, никакой поддельный набег. Я советую создать единственный раздел на каждом диске, который охватывает все пространство, и отметьте его как FD, таким образом, этого не происходит снова.
https://www.tecmint.com/create-raid1-in-linux/
Удачи.
Примечание стороны относительно поддельного набега. https://www.intel.com/content/dam/www/public/us/en/documents/white-papers/rst-linux-paper.pdf
"Рекомендуемой Реализацией RAID программного обеспечения в Linux* является MD с открытым исходным кодом пакет RAID. Intel улучшил MD RAID для поддержки метаданных RST и OROM, и он проверяется и поддерживается Intel для серверных платформ. Существует растущий интерес в OEMs в наличии Intel, расширяют проверку и поддержку RST на мобильном, настольном и платформах рабочей станции в среде двойной загрузки Windows и Linux"
Который читает "поставщиков HW, ленивы и не хотят иметь дело с операционными системами, таким образом, они хотят предварительно создать системы 'с RAID' и притвориться, что они увеличили стоимость для клиента"