Я выполняю 14.04 LTS с 5 RAID-массивами программного обеспечения диска с дисками на 2 ТБ. mdadm, lvm и xfs. Моим первичным устройством начальной загрузки является SSD на 256 ГБ.
Имел перебой в питании, и когда питание возвратилось, система не загрузится. При попытке загрузиться, следующее неоднократно прокручивается на экране, таким образом, я не мог закончить процесс начальной загрузки:
Incrementally starting RAID arrays...
mdadm: CREATE user root not found
mdadm: CREATE group disk not found
Incrementally started RAID arrays.
Существует ошибка на панели запуска для этого (https://bugs.launchpad.net/ubuntu / + source/mdadm / + ошибка/1335642), но там, кажется, не категорическое обходное решение - или по крайней мере ступает легко повторяемая мной.
При начальной загрузке в режим восстановления, перечисляет следующую информацию:
[ 2.482387] md: bind<sdb1>
[ 2.408390] md: bind<sda1>
[ 2.438005] md: bind<sdc1>
[ 2.986691] Switched to clocksource tsc
Incrementally starting RAID arrays...
mdadm: CREATE user root not found
mdadm: CREATE group disk not found
[ 31.755948] md/raid:md0: device sdc1 operational as raid disk 1
[ 31.756886] md/raid:md0: device sda1 operational as raid disk 0
[ 31.756861] md/raid:md0: device sdb1 operational as raid disk 2
[ 31.756115] md/raid:md0: device sdd1 operational as raid disk 3
[ 31.756531] md/raid:md0: allocated 0kB
[ 31.756647] md/raid:md0: raid level 5 active with 4 out of 5 devices, algorithm 2
[ 31.756735] md0: detected capacity change from 0 to 8001591181312
mdadm: started array /dev/md0
Incrementally started RAID arrays.
[ 31.757933] random: nonblocking pool is initialized
[ 31.758184] md0: unknown partition table
[ 31.781641] bio: create slab <bio-1> at 1
Incrementally starting RAID arrays...
mdadm: CREATE user root not found
mdadm: CREATE group disk not found
Incrementally started RAID arrays.
Так, загружаясь в Живой CD, диски весь взгляд хорошо через УМНЫЕ данные. Если я пытаюсь работать mdadm --assemble --scan
Я получаю соблюдающее предупреждение:
mdadm: WARNING /dev/sde1 and /dev/sde appear to have very similar superblocks.
If they are really different, please --zero the superblock on one
If they are the same or overlap, please remove one from the
DEVICE list in mdadm.conf.
Массив не собран.
Я получил всю информацию об устройстве RAID здесь:
/dev/sda1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Tue Aug 2 11:43:38 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1af33e59 - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 33 0 active sync /dev/sdc1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Tue Aug 2 11:43:38 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1af33e6d - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 49 2 active sync /dev/sdd1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Tue Aug 2 11:43:38 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1af33e7b - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 65 1 active sync /dev/sde1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
/dev/sdd1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Tue Aug 2 11:43:38 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1af33e8f - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 81 3 active sync /dev/sdf1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
/dev/sde1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Tue Aug 2 11:43:38 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1af33e41 - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 4 8 1 4 active sync /dev/sda1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
Исходный/etc/mdadm/mdadm.conf (ничто сумасшедшее):
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 metadata=0.90 UUID=d5f6a94e:185828ec:b1902148:b8793263
# This file was auto-generated on Wed, 09 May 2012 23:34:51 -0400
# by mkconf $Id$
Так, если я работаю sudo mdadm --assemble /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
(в зависимости от которого диски являются дисками набега), затем, массив собирается правильно, и я могу получить доступ к файлам.
Я попытался вытянуть питание от всех дисков RAID, система все еще не загружается (тот же бесконечный цикл).
Я попытался chroot
и определите каждое устройство в массиве в/etc/mdadm/mdadm.conf и затем обновите initramfs, который является, где я теперь, и система все еще не загрузится.
Вот новое /etc/mdadm/mdadm.conf
:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
DEVICE /dev/sd[abcde]1
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
#ARRAY /dev/md0 metadata=0.90 UUID=d5f6a94e:185828ec:b1902148:b8793263
ARRAY /dev/md0 devices=/dev/sda1,/dev/sdb1,/dev/sdc1,/dev/sdd1,/dev/sde1
# This file was auto-generated on Wed, 09 May 2012 23:34:51 -0400
# by mkconf $Id$
То, что я не понимаю, - то, что заставляет систему не собираться на начальной загрузке, когда я могу собраться вручную путем определения устройств.
Одна из остающихся вещей, которые кажутся нечетными, - то, что я записал процесс начальной загрузки на медленной-mo камере, и не смотрите /dev/sde
или /dev/sde1
в сообщениях загрузки. Я собираюсь изучить это, но действительно не знаю, что изучить.
Обновление - суббота 13 августа
Я делал больше расследований. Так, выполнение a sudo fdisk -l
показывает следующее для дисков в RAID 5:
ubuntu@ubuntu:~$ sudo fdisk -l
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xca36f687
Device Boot Start End Blocks Id System
/dev/sda1 2048 3907029167 1953513560 fd Linux raid autodetect
WARNING: GPT (GUID Partition Table) detected on '/dev/sdc'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sdc: 2000.4 GB, 2000398933504 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029167 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 33553920 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdc1 1 3907029166 1953514583 ee GPT
Partition 1 does not start on physical sector boundary.
Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xf66042a2
Device Boot Start End Blocks Id System
/dev/sdd1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/sde: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2006adb2
Device Boot Start End Blocks Id System
/dev/sde1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/sdf: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x0008b3d6
Device Boot Start End Blocks Id System
/dev/sdf1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/sdg: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xd46f102b
Device Boot Start End Blocks Id System
/dev/sdg1 64 3907029167 1953514552 fd Linux raid autodetect
Так, очевидно, здесь /dev/sdg1
запускается в другом местоположении сектора, чем другие разделы RAID. Так, следующий шаг должен был исследовать /dev/sdg
диск. Как Вы видите следующими 4 командами, mdadm не исследует /dev/sdg
управляйте и обнаружьте RAID как он, делает для других дисков (/dev/sda
используемый в качестве примера ниже). Действительно ли это - подсказка относительно того, что является на самом деле неправильным?
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdg
/dev/sdg:
MBR Magic : aa55
Partition[0] : 3907029104 sectors at 64 (type fd)
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdg1
/dev/sdg1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Sun Aug 14 03:04:59 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1b029700 - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 81 3 active sync /dev/sdf1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sda
/dev/sda:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Sun Aug 14 03:04:59 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1b0296b2 - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 4 8 1 4 active sync /dev/sda1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 0.90.00
UUID : d5f6a94e:185828ec:b1902148:b8793263
Creation Time : Tue Feb 15 18:47:10 2011
Raid Level : raid5
Used Dev Size : 1953513472 (1863.02 GiB 2000.40 GB)
Array Size : 7814053888 (7452.06 GiB 8001.59 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Update Time : Sun Aug 14 03:04:59 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Checksum : 1b0296b2 - correct
Events : 105212
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 4 8 1 4 active sync /dev/sda1
0 0 8 33 0 active sync /dev/sdc1
1 1 8 65 1 active sync /dev/sde1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 81 3 active sync /dev/sdf1
4 4 8 1 4 active sync /dev/sda1
Наконец, я смущен путем выполнения sudo mdadm --assemble --scan -v
(подробный режим), потому что это, кажется, дает предупреждение о диске (/dev/sdf
) и первое (и только) раздел (/dev/sdf1
) выглядеть одинаково и затем прекращает собираться. Посмотрите здесь:
ubuntu@ubuntu:~$ sudo mdadm --assemble --scan -v
mdadm: looking for devices for /dev/md0
mdadm: Cannot assemble mbr metadata on /dev/sdh1
mdadm: Cannot assemble mbr metadata on /dev/sdh
mdadm: no recogniseable superblock on /dev/sdb5
mdadm: Cannot assemble mbr metadata on /dev/sdb2
mdadm: Cannot assemble mbr metadata on /dev/sdb1
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: no RAID superblock on /dev/sdg
mdadm: no RAID superblock on /dev/sdc1
mdadm: no RAID superblock on /dev/sdc
mdadm: cannot open device /dev/sr0: No medium found
mdadm: no RAID superblock on /dev/loop0
mdadm: no RAID superblock on /dev/ram15
mdadm: no RAID superblock on /dev/ram14
mdadm: no RAID superblock on /dev/ram13
mdadm: no RAID superblock on /dev/ram12
mdadm: no RAID superblock on /dev/ram11
mdadm: no RAID superblock on /dev/ram10
mdadm: no RAID superblock on /dev/ram9
mdadm: no RAID superblock on /dev/ram8
mdadm: no RAID superblock on /dev/ram7
mdadm: no RAID superblock on /dev/ram6
mdadm: no RAID superblock on /dev/ram5
mdadm: no RAID superblock on /dev/ram4
mdadm: no RAID superblock on /dev/ram3
mdadm: no RAID superblock on /dev/ram2
mdadm: no RAID superblock on /dev/ram1
mdadm: no RAID superblock on /dev/ram0
mdadm: /dev/sdg1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdf is identified as a member of /dev/md0, slot 1.
mdadm: WARNING /dev/sdf1 and /dev/sdf appear to have very similar superblocks.
If they are really different, please --zero the superblock on one
If they are the same or overlap, please remove one from the
DEVICE list in mdadm.conf.
На данном этапе я задаюсь вопросом, что я должен сделать затем?
Заранее спасибо за Вашу справку!
Обновление - 23 сентября 2016
Так, я попробовал опцию № 1 выше на диске, который запустился в секторе 64. Я привел диск к сбою, удалил его из массива и повторно разделил пространство. Я затем добавил, что это въезжает задним ходом и позволило ему восстановить. Я также запустил офлайновый УМНЫЙ тест на диске. Все передали, и диск был добавлен назад в массив без проблемы.
Я не знаю то, что запросило этот следующий шаг, но я пытался выбрать другой пересмотр ядра из меню личинки. Через усовершенствованные параметры загрузки я не МОГУ загрузиться от 3.13.0-92-generic
и при этом я не могу загрузиться от 3.13.0-86-generic
. Они оба входят в бесконечный цикл.
ОДНАКО я могу загрузиться прочь 3.13.0-63-generic
и это походит на любое ядро, более старое, чем это (хотя я не протестировал их всех). Очевидно, система не работает 100%: хотя это берет меня к GUI, я не могу войти в систему. Я должен переключить на терминал и вход в систему тот путь. Однако массив смонтирован и готов пойти, и Samba хорошо работает.
Так, моя следующая мысль состояла в том, чтобы изучить то, что отличалось между initrd
изображения. Я развернул нерабочее изображение и рабочее изображение и сравнил все недвоичные файлы и хотя я - новобранец, я не видел ничто плохого.
В этой точке это, кажется, указывает на меня на различие между изображениями ядра, но я - выход из своей глубины здесь и не уверенный, что я должен сделать затем.
Помогите?