Программное обеспечение RAID (зеркало) Запрос

мы запускаем программный рейд (RAID1-mirror) на нашем сервере ubuntu, RAID1 работает с двумя дисками (sda 1TB, sdb 1TB). оба диска имеют 4 раздела (/ dev / md0 as / swap, / dev / md1 as / root, / dev / md2 as / opt, / dev / md3 / home), теперь раздел / dev / md2 почти заполнен, поэтому нам нужно расширить этот раздел / dev / md2, так как у нас есть 1 дополнительный необработанный диск на этом сервере. возможно ли расширить раздел RAID1 / dev / md2 из необработанного раздела. Помочь нам разобраться.

1
задан 18 April 2017 в 08:24

6 ответов

Вы нарисовали себя в углу, используя программный рейд для обеспечения высокой доступности и управления томами. В следующий раз установите LVM поверх RAID, чтобы отделить эти проблемы. В этом сценарии добавление большего объема памяти так же просто, как добавление большего объема бэкэнд-памяти в группу томов и расширение логического тома для использования дополнительного бэкэнд. Этот дополнительный бэкэнд может быть другим автономным RAID1, как только вы увеличите LV на двух RAID1, у вас есть RAID 10 (полоса зеркал) для этого тома.

Ваш единственный выход на этом этапе - конвертировать ваш массив от RAID1 до RAID5, как предлагалось, чтобы избавиться от производительности записи.

В качестве побочного примечания ваш несколько разделов MD, вероятно, не выровнены должным образом, что может опуститься так же, как до 20% вашей полосы пропускания.

https://www.thomas-krenn.com/en/wiki/Partition_Alignment

https: //www.thomas-krenn. com / en / wiki / Partition_Alignment

Full - это трудное место для хранения массива. Вот почему очень важно планировать развертывание для ответа на это и протестировать его, прежде чем вы начнете производство. Резервное копирование всех ваших вещей перед продолжением и удачей.

0
ответ дан 18 July 2018 в 14:44

Теперь удалось протестировать с помощью VM с Ubuntu-сервером 16.04. Я создал два виртуальных диска, каждый размером 20G и секционированный appr. 10 ГБ каждого раздела. После создания RAID1 (/dev/md0 как /, /dev/md1 в качестве /home) на sda1 / sdb1 и sda2 / sdb2 и установки, я добавил третий диск и разбил его на равные (sdc1 и sdc2, rsp.). Привод md1 следует выращивать. По мере роста md2 замените md1 на md2 и sdc2 на любой раздел, который вы создали на своем третьем диске, в следующих командах.

Во-первых, я добавил раздел на рейд:

$ sudo mdadm --add /dev/md1 /dev/sdc2

Третий раздел добавлен как «запасной» (см. вывод sudo mdadm --details /dev/md1). Затем я вырос RAID и изменил уровень рейда в одном вызове

$ sudo mdadm --grow --raid-devices=3 -l 5 /dev/md1

Теперь подождите, так как синхронизация занимает некоторое время. После выполнения синхронизации вы увидите измененное устройство рейда:

$ sudo mdadm --detail /dev/md1 /dev/md1: Version : 1.2 Creation Time : Tue Apr 18 13:58:59 2017 Raid Level : raid5 Array Size : 22392832 (21.36 GiB 22.93 GB) Used Dev Size : 11196416 (10.68 GiB 11.47 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Tue Apr 18 15:52:23 2017 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Name : testRaid:1 (local to host testRaid) UUID : a85a5ca8:17549f5d:7dc28c7b:e24bd25b Events : 136 Number Major Minor RaidDevice State 0 8 2 0 active sync /dev/sda2 1 8 18 1 active sync /dev/sdb2 2 8 34 2 active sync /dev/sdc2 $

Теперь вы видите, что уровень рейда изменился на 5, а размер «Массив» теперь составляет 20G. «Использованный размер устройства» по-прежнему составляет 10G, поскольку файловая система не автоматически растет. Это будет сделано с

$ sudo resize2fs /dev/md1

ext4 файловыми системами можно развернуть онлайн; без параметра размера, он расширяется до макс. Если у вас есть другая файловая система, посмотрите, возможно ли изменение размера онлайн.

df -h теперь показывает:

/dev/md1 21G 30M 20G 1% /home

Надеюсь, это поможет. И помните: всегда нужно иметь текущую и проверенную резервную копию, прежде чем играть с дисками и разделами!

1
ответ дан 18 July 2018 в 14:44

Вы нарисовали себя в углу, используя программный рейд для обеспечения высокой доступности и управления томами. В следующий раз установите LVM поверх RAID, чтобы отделить эти проблемы. В этом сценарии добавление большего объема памяти так же просто, как добавление большего объема бэкэнд-памяти в группу томов и расширение логического тома для использования дополнительного бэкэнд. Этот дополнительный бэкэнд может быть другим автономным RAID1, как только вы увеличите LV на двух RAID1, у вас есть RAID 10 (полоса зеркал) для этого тома.

Ваш единственный выход на этом этапе - конвертировать ваш массив от RAID1 до RAID5, как предлагалось, чтобы избавиться от производительности записи.

В качестве побочного примечания ваш несколько разделов MD, вероятно, не выровнены должным образом, что может опуститься так же, как до 20% вашей полосы пропускания.

https://www.thomas-krenn.com/en/wiki/Partition_Alignment

https: //www.thomas-krenn. com / en / wiki / Partition_Alignment

Full - это трудное место для хранения массива. Вот почему очень важно планировать развертывание для ответа на это и протестировать его, прежде чем вы начнете производство. Резервное копирование всех ваших вещей перед продолжением и удачей.

0
ответ дан 24 July 2018 в 20:27

Теперь удалось протестировать с помощью VM с Ubuntu-сервером 16.04. Я создал два виртуальных диска, каждый размером 20G и секционированный appr. 10 ГБ каждого раздела. После создания RAID1 (/dev/md0 как /, /dev/md1 в качестве /home) на sda1 / sdb1 и sda2 / sdb2 и установки, я добавил третий диск и разбил его на равные (sdc1 и sdc2, rsp.). Привод md1 следует выращивать. По мере роста md2 замените md1 на md2 и sdc2 на любой раздел, который вы создали на своем третьем диске, в следующих командах.

Во-первых, я добавил раздел на рейд:

$ sudo mdadm --add /dev/md1 /dev/sdc2

Третий раздел добавлен как «запасной» (см. вывод sudo mdadm --details /dev/md1). Затем я вырос RAID и изменил уровень рейда в одном вызове

$ sudo mdadm --grow --raid-devices=3 -l 5 /dev/md1

Теперь подождите, так как синхронизация занимает некоторое время. После выполнения синхронизации вы увидите измененное устройство рейда:

$ sudo mdadm --detail /dev/md1 /dev/md1: Version : 1.2 Creation Time : Tue Apr 18 13:58:59 2017 Raid Level : raid5 Array Size : 22392832 (21.36 GiB 22.93 GB) Used Dev Size : 11196416 (10.68 GiB 11.47 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Tue Apr 18 15:52:23 2017 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Name : testRaid:1 (local to host testRaid) UUID : a85a5ca8:17549f5d:7dc28c7b:e24bd25b Events : 136 Number Major Minor RaidDevice State 0 8 2 0 active sync /dev/sda2 1 8 18 1 active sync /dev/sdb2 2 8 34 2 active sync /dev/sdc2 $

Теперь вы видите, что уровень рейда изменился на 5, а размер «Массив» теперь составляет 20G. «Использованный размер устройства» по-прежнему составляет 10G, поскольку файловая система не автоматически растет. Это будет сделано с

$ sudo resize2fs /dev/md1

ext4 файловыми системами можно развернуть онлайн; без параметра размера, он расширяется до макс. Если у вас есть другая файловая система, посмотрите, возможно ли изменение размера онлайн.

df -h теперь показывает:

/dev/md1 21G 30M 20G 1% /home

Надеюсь, это поможет. И помните: всегда нужно иметь текущую и проверенную резервную копию, прежде чем играть с дисками и разделами!

1
ответ дан 24 July 2018 в 20:27

Вы нарисовали себя в углу, используя программный рейд для обеспечения высокой доступности и управления томами. В следующий раз установите LVM поверх RAID, чтобы отделить эти проблемы. В этом сценарии добавление большего объема памяти так же просто, как добавление большего объема бэкэнд-памяти в группу томов и расширение логического тома для использования дополнительного бэкэнд. Этот дополнительный бэкэнд может быть другим автономным RAID1, как только вы увеличите LV на двух RAID1, у вас есть RAID 10 (полоса зеркал) для этого тома.

Ваш единственный выход на этом этапе - конвертировать ваш массив от RAID1 до RAID5, как предлагалось, чтобы избавиться от производительности записи.

В качестве побочного примечания ваш несколько разделов MD, вероятно, не выровнены должным образом, что может опуститься так же, как до 20% вашей полосы пропускания.

https://www.thomas-krenn.com/en/wiki/Partition_Alignment

https: //www.thomas-krenn. com / en / wiki / Partition_Alignment

Full - это трудное место для хранения массива. Вот почему очень важно планировать развертывание для ответа на это и протестировать его, прежде чем вы начнете производство. Резервное копирование всех ваших вещей перед продолжением и удачей.

0
ответ дан 31 July 2018 в 23:30

Теперь удалось протестировать с помощью VM с Ubuntu-сервером 16.04. Я создал два виртуальных диска, каждый размером 20G и секционированный appr. 10 ГБ каждого раздела. После создания RAID1 (/dev/md0 как /, /dev/md1 в качестве /home) на sda1 / sdb1 и sda2 / sdb2 и установки, я добавил третий диск и разбил его на равные (sdc1 и sdc2, rsp.). Привод md1 следует выращивать. По мере роста md2 замените md1 на md2 и sdc2 на любой раздел, который вы создали на своем третьем диске, в следующих командах.

Во-первых, я добавил раздел на рейд:

$ sudo mdadm --add /dev/md1 /dev/sdc2

Третий раздел добавлен как «запасной» (см. вывод sudo mdadm --details /dev/md1). Затем я вырос RAID и изменил уровень рейда в одном вызове

$ sudo mdadm --grow --raid-devices=3 -l 5 /dev/md1

Теперь подождите, так как синхронизация занимает некоторое время. После выполнения синхронизации вы увидите измененное устройство рейда:

$ sudo mdadm --detail /dev/md1 /dev/md1: Version : 1.2 Creation Time : Tue Apr 18 13:58:59 2017 Raid Level : raid5 Array Size : 22392832 (21.36 GiB 22.93 GB) Used Dev Size : 11196416 (10.68 GiB 11.47 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Tue Apr 18 15:52:23 2017 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Name : testRaid:1 (local to host testRaid) UUID : a85a5ca8:17549f5d:7dc28c7b:e24bd25b Events : 136 Number Major Minor RaidDevice State 0 8 2 0 active sync /dev/sda2 1 8 18 1 active sync /dev/sdb2 2 8 34 2 active sync /dev/sdc2 $

Теперь вы видите, что уровень рейда изменился на 5, а размер «Массив» теперь составляет 20G. «Использованный размер устройства» по-прежнему составляет 10G, поскольку файловая система не автоматически растет. Это будет сделано с

$ sudo resize2fs /dev/md1

ext4 файловыми системами можно развернуть онлайн; без параметра размера, он расширяется до макс. Если у вас есть другая файловая система, посмотрите, возможно ли изменение размера онлайн.

df -h теперь показывает:

/dev/md1 21G 30M 20G 1% /home

Надеюсь, это поможет. И помните: всегда нужно иметь текущую и проверенную резервную копию, прежде чем играть с дисками и разделами!

1
ответ дан 31 July 2018 в 23:30

Другие вопросы по тегам:

Похожие вопросы: