Перемещение RAID 5 на другой компьютер

Проблема с RAID 5

Яркой проблемой является то, что я не уверен, как активировать неактивный RAID без моих усилий, необратимых. Попытайтесь собрать неразрушающую. Возможно ли это?

Перенос RAID 5 на новый компьютер при сбое ЦП.

Перенос RAID 5 на новый компьютер, если ЦПУ не работает.

UBUNTU 16.04 запуск программного обеспечения mdadm RAID 5 завершился с ошибкой и перезагрузится, нажав ctrl D, чтобы продолжить. Я думаю, что мой RAID-массив кажется неповрежденным. См. Распечатки ниже. Я хочу переместить мой RAID 5 с одного компьютера на другой, если проблема связана с оборудованием. Проблема с загрузочным разделом UBUNTU может заключаться в том, что на загрузочном разделе закончилось свободное пространство. Загрузочный раздел был всего 10G, и хотя установка Ubuntu изначально была минимальной установкой сервера, я также расширил ее, чтобы запустить рабочий стол. 10G, возможно, не было достаточно, но так продолжалось 2 месяца. Мне просто нужен графический интерфейс. Также недавно я прочитал, что разделы RAID 5 не должны превышать 1,5 Т на каждом диске. В то время я не знал, что это работает примерно 6 месяцев, хотя в последнее время оно, возможно, превысило этот предел. Сейчас он работает примерно в 6Т. Мой план состоит в том, чтобы переместить RAID 5 на новый компьютер с новой установкой Ubuntu 16 на новый диск 'sde' и перемонтировать RAID в новой системе.

Вопросы

UBUNTU 16.04 запуск программного обеспечения mdadm RAID 5 завершился с ошибкой и перезагрузится с нажатием клавиши ctrl D.

UBUNTU 16.04 запуск программного обеспечения mdadm RAID 5 не удалось и перезагрузится с помощью клавиши CTRL D, чтобы продолжить.

Я думаю, что мой RAID-массив кажется неповрежденным. См. Распечатки ниже. Я хочу переместить мой RAID 5 с одного компьютера на другой, если проблема была в аппаратном обеспечении.

Я думаю, что мой RAID-массив кажется неповрежденным. См. Распечатки ниже. Я хочу переместить мой RAID 5 с одного компьютера на другой, если проблема была в аппаратном обеспечении.

«Собирает» перезаписывает разделы RAID? Будет ли это необратимым?

root@UbuntuServer17:~# cat /etc/fstab # /etc/fstab: static file system information. # # fstab on WDD running as 5th disk sde # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # <file system> <mount point> <type> <options> <dump> <pass> # / was on /dev/sda2 during installation UUID=f37bd21c-9464-4763-b3e7-7f9f6f5154df / ext4 errors=remount-ro 0 1 # /boot/efi was on /dev/sda1 during installation UUID=4993-9AE3 /boot/efi vfat umask=0077 0 1 # swap was on /dev/sda3 during installation UUID=e3b9f5e9-5eb9-47e0-9288-68649263093c none swap sw 0 0 # Steve added - from RAID17 when it crashed # / was on /dev/sda1 during installation on RAID17 #UUID=1672f12a-9cf2-488b-9c8f-a701f1bc985c / ext4 errors=remount-ro 0 1 #/dev/md0p1 /media/steve/RAID17 ext4 data=ordered,relatime,stripe=384,nodev,nosuid 0 0 #UUID=1672f12a-9cf2-488b-9c8f-a701f1bc985c / ext4 errors=remount-ro 0 1 #/dev/md0 /media/steve/RAID17 ext4 data=ordered,relatime,stripe=384,nodev,nosuid 0 0 root@UbuntuServer17:~# cat /etc/mdadm/mdadm.conf # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Sun, 05 Feb 2017 20:34:00 +0200 # by mkconf $Id$ # Steve added - maybe should add uuid to fstab file to mount on WD at start - But no sure # ARRAY /dev/md0 uuid=3b92382f:78784c2b:e7a07a35:c1afcf1d ARRAY /dev/md0 uuid=32c91cbf:266a5d14:182f1b34:f92b1ebe root@UbuntuServer17:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : inactive sda2[0](S) sdd1[4](S) sdb1[1](S) sdc1[2](S) 7803273216 blocks super 1.2 unused devices: <none> root@UbuntuServer17:~# mdadm --examine --scan ARRAY /dev/md/0 metadata=1.2 UUID=3b92382f:78784c2b:e7a07a35:c1afcf1d name=RAID17:0 root@UbuntuServer17:~# root@UbuntuServer17:~# sudo fdisk -l Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0x5120487a Device Boot Start End Sectors Size Id Type /dev/sda1 * 2048 20482047 20480000 9.8G 83 Linux /dev/sda2 20514816 3907028991 3886514176 1.8T 83 Linux /dev/sda3 20482048 20514815 32768 16M 82 Linux swap / Solaris Partition table entries are not in disk order. Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0x000a439d Device Boot Start End Sectors Size Id Type /dev/sdb1 2048 3907028991 3907026944 1.8T 83 Linux Disk /dev/sdc: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0x00044e92 Device Boot Start End Sectors Size Id Type /dev/sdc1 2048 3907028991 3907026944 1.8T 83 Linux Disk /dev/sdd: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0xc7703e92 Device Boot Start End Sectors Size Id Type /dev/sdd1 2048 3907028991 3907026944 1.8T 83 Linux Disk /dev/sde: 465.8 GiB, 500107862016 bytes, 976773168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: AEC0A022-299A-4283-9F5F-2FCC4CC4609E Device Start End Sectors Size Type /dev/sde1 2048 1050623 1048576 512M EFI System /dev/sde2 1050624 960124927 959074304 457.3G Linux filesystem /dev/sde3 960124928 976771071 16646144 8G Linux swap root@UbuntuServer17:~# root@UbuntuServer17:~# sudo dumpe2fs /dev/sda2 dumpe2fs 1.42.13 (17-May-2015) Filesystem volume name: <none> Last mounted on: <not available> Filesystem UUID: b474c4d4-af7f-4730-b746-a0c0c49ca08d Filesystem magic number: 0xEF53 Filesystem revision #: 1 (dynamic) Filesystem features: has_journal ext_attr resize_inode dir_index filetype extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize Filesystem flags: signed_directory_hash Default mount options: user_xattr acl Filesystem state: clean Errors behavior: Continue Filesystem OS type: Linux Inode count: 121454592 Block count: 485814272 Reserved block count: 24290713 Free blocks: 478141459 Free inodes: 121454581 First block: 0 Block size: 4096 Fragment size: 4096 Reserved GDT blocks: 908 Blocks per group: 32768 Fragments per group: 32768 Inodes per group: 8192 Inode blocks per group: 512 Flex block group size: 16 Filesystem created: Sat Feb 25 02:16:09 2017 Last mount time: n/a Last write time: Sat Feb 25 02:16:09 2017 Mount count: 0 Maximum mount count: -1 Last checked: Sat Feb 25 02:16:09 2017 Check interval: 0 (<none>) Lifetime writes: 135 MB Reserved blocks uid: 0 (user root) Reserved blocks gid: 0 (group root) First inode: 11 Inode size: 256 Required extra isize: 28 Desired extra isize: 28 Journal inode: 8 Default directory hash: half_md4 Directory Hash Seed: e1e7da74-6e2f-4fa4-a9e0-a13a44338170 Journal backup: inode blocks dumpe2fs: Corrupt extent header while reading journal super block root@UbuntuServer17:~#
0
задан 15 August 2017 в 12:27

2 ответа

В итоге я нашел ответ на https://serverfault.com/questions/32709/how-do-i-move-a-linux-software-raid-to-a-new-machine.

Вот что я сделал:

Загрузился с новой установки и сохранил старые файлы fstab и mdadm.conf в моем облаке.

Похоже, что раздел Raid на sda2 (один из 4-х физических дисков) фактически не удался.

Я переустановил Ubuntu на новый диск sde.

Переустановил mdadm.

] Я знал, где 4 раздела, потому что я не изменил порядок, и теперь загрузка была sde1;

Я заставил массив Рейда собраться на тех же самых разделах;

К счастью, три диски из четырех работают так, что Raid деградирует, но до сих пор его работа.

Последующие шаги аккуратно изложены в приведенной выше ссылке. Должен сказать, что я нашел Digital Ocean очень полезной и на этом пути. Это всегда кажется таким простым потом, но путь коварный.

0
ответ дан 18 July 2018 в 08:49

В итоге я нашел ответ на https://serverfault.com/questions/32709/how-do-i-move-a-linux-software-raid-to-a-new-machine.

Вот что я сделал:

Загрузился с новой установки и сохранил старые файлы fstab и mdadm.conf в моем облаке.

Похоже, что раздел Raid на sda2 (один из 4-х физических дисков) фактически не удался.

Я переустановил Ubuntu на новый диск sde.

Переустановил mdadm.

] Я знал, где 4 раздела, потому что я не изменил порядок, и теперь загрузка была sde1;

Я заставил массив Рейда собраться на тех же самых разделах;

К счастью, три диски из четырех работают так, что Raid деградирует, но до сих пор его работа.

Последующие шаги аккуратно изложены в приведенной выше ссылке. Должен сказать, что я нашел Digital Ocean очень полезной и на этом пути. Это всегда кажется таким простым потом, но путь коварный.

0
ответ дан 24 July 2018 в 19:10

Другие вопросы по тегам:

Похожие вопросы: