мы запускаем программный рейд (RAID1-mirror) на нашем сервере ubuntu, RAID1 работает с двумя дисками (sda 1TB, sdb 1TB). оба диска имеют 4 раздела (/ dev / md0 as / swap, / dev / md1 as / root, / dev / md2 as / opt, / dev / md3 / home), теперь раздел / dev / md2 почти заполнен, поэтому нам нужно расширить этот раздел / dev / md2, так как у нас есть 1 дополнительный необработанный диск на этом сервере. возможно ли расширить раздел RAID1 / dev / md2 из необработанного раздела. Помочь нам разобраться.
Вы нарисовали себя в углу, используя программный рейд для обеспечения высокой доступности и управления томами. В следующий раз установите LVM поверх RAID, чтобы отделить эти проблемы. В этом сценарии добавление большего объема памяти так же просто, как добавление большего объема бэкэнд-памяти в группу томов и расширение логического тома для использования дополнительного бэкэнд. Этот дополнительный бэкэнд может быть другим автономным RAID1, как только вы увеличите LV на двух RAID1, у вас есть RAID 10 (полоса зеркал) для этого тома.
Ваш единственный выход на этом этапе - конвертировать ваш массив от RAID1 до RAID5, как предлагалось, чтобы избавиться от производительности записи.
В качестве побочного примечания ваш несколько разделов MD, вероятно, не выровнены должным образом, что может опуститься так же, как до 20% вашей полосы пропускания.
https://www.thomas-krenn.com/en/wiki/Partition_Alignment
https: //www.thomas-krenn. com / en / wiki / Partition_Alignment
Full - это трудное место для хранения массива. Вот почему очень важно планировать развертывание для ответа на это и протестировать его, прежде чем вы начнете производство. Резервное копирование всех ваших вещей перед продолжением и удачей.
Теперь удалось протестировать с помощью VM с Ubuntu-сервером 16.04. Я создал два виртуальных диска, каждый размером 20G и секционированный appr. 10 ГБ каждого раздела. После создания RAID1 (/dev/md0 как /, /dev/md1 в качестве /home) на sda1 / sdb1 и sda2 / sdb2 и установки, я добавил третий диск и разбил его на равные (sdc1 и sdc2, rsp.). Привод md1 следует выращивать. По мере роста md2 замените md1 на md2 и sdc2 на любой раздел, который вы создали на своем третьем диске, в следующих командах.
Во-первых, я добавил раздел на рейд:
$ sudo mdadm --add /dev/md1 /dev/sdc2
Третий раздел добавлен как «запасной» (см. вывод sudo mdadm --details /dev/md1). Затем я вырос RAID и изменил уровень рейда в одном вызове
$ sudo mdadm --grow --raid-devices=3 -l 5 /dev/md1
Теперь подождите, так как синхронизация занимает некоторое время. После выполнения синхронизации вы увидите измененное устройство рейда:
$ sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Tue Apr 18 13:58:59 2017
Raid Level : raid5
Array Size : 22392832 (21.36 GiB 22.93 GB)
Used Dev Size : 11196416 (10.68 GiB 11.47 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Apr 18 15:52:23 2017
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : testRaid:1 (local to host testRaid)
UUID : a85a5ca8:17549f5d:7dc28c7b:e24bd25b
Events : 136
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
$
Теперь вы видите, что уровень рейда изменился на 5, а размер «Массив» теперь составляет 20G. «Использованный размер устройства» по-прежнему составляет 10G, поскольку файловая система не автоматически растет. Это будет сделано с
$ sudo resize2fs /dev/md1
ext4 файловыми системами можно развернуть онлайн; без параметра размера, он расширяется до макс. Если у вас есть другая файловая система, посмотрите, возможно ли изменение размера онлайн.
df -h теперь показывает:
/dev/md1 21G 30M 20G 1% /home
Надеюсь, это поможет. И помните: всегда нужно иметь текущую и проверенную резервную копию, прежде чем играть с дисками и разделами!
Вы нарисовали себя в углу, используя программный рейд для обеспечения высокой доступности и управления томами. В следующий раз установите LVM поверх RAID, чтобы отделить эти проблемы. В этом сценарии добавление большего объема памяти так же просто, как добавление большего объема бэкэнд-памяти в группу томов и расширение логического тома для использования дополнительного бэкэнд. Этот дополнительный бэкэнд может быть другим автономным RAID1, как только вы увеличите LV на двух RAID1, у вас есть RAID 10 (полоса зеркал) для этого тома.
Ваш единственный выход на этом этапе - конвертировать ваш массив от RAID1 до RAID5, как предлагалось, чтобы избавиться от производительности записи.
В качестве побочного примечания ваш несколько разделов MD, вероятно, не выровнены должным образом, что может опуститься так же, как до 20% вашей полосы пропускания.
https://www.thomas-krenn.com/en/wiki/Partition_Alignment
https: //www.thomas-krenn. com / en / wiki / Partition_Alignment
Full - это трудное место для хранения массива. Вот почему очень важно планировать развертывание для ответа на это и протестировать его, прежде чем вы начнете производство. Резервное копирование всех ваших вещей перед продолжением и удачей.
Теперь удалось протестировать с помощью VM с Ubuntu-сервером 16.04. Я создал два виртуальных диска, каждый размером 20G и секционированный appr. 10 ГБ каждого раздела. После создания RAID1 (/dev/md0 как /, /dev/md1 в качестве /home) на sda1 / sdb1 и sda2 / sdb2 и установки, я добавил третий диск и разбил его на равные (sdc1 и sdc2, rsp.). Привод md1 следует выращивать. По мере роста md2 замените md1 на md2 и sdc2 на любой раздел, который вы создали на своем третьем диске, в следующих командах.
Во-первых, я добавил раздел на рейд:
$ sudo mdadm --add /dev/md1 /dev/sdc2
Третий раздел добавлен как «запасной» (см. вывод sudo mdadm --details /dev/md1). Затем я вырос RAID и изменил уровень рейда в одном вызове
$ sudo mdadm --grow --raid-devices=3 -l 5 /dev/md1
Теперь подождите, так как синхронизация занимает некоторое время. После выполнения синхронизации вы увидите измененное устройство рейда:
$ sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Tue Apr 18 13:58:59 2017
Raid Level : raid5
Array Size : 22392832 (21.36 GiB 22.93 GB)
Used Dev Size : 11196416 (10.68 GiB 11.47 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Apr 18 15:52:23 2017
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : testRaid:1 (local to host testRaid)
UUID : a85a5ca8:17549f5d:7dc28c7b:e24bd25b
Events : 136
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
$
Теперь вы видите, что уровень рейда изменился на 5, а размер «Массив» теперь составляет 20G. «Использованный размер устройства» по-прежнему составляет 10G, поскольку файловая система не автоматически растет. Это будет сделано с
$ sudo resize2fs /dev/md1
ext4 файловыми системами можно развернуть онлайн; без параметра размера, он расширяется до макс. Если у вас есть другая файловая система, посмотрите, возможно ли изменение размера онлайн.
df -h теперь показывает:
/dev/md1 21G 30M 20G 1% /home
Надеюсь, это поможет. И помните: всегда нужно иметь текущую и проверенную резервную копию, прежде чем играть с дисками и разделами!
Вы нарисовали себя в углу, используя программный рейд для обеспечения высокой доступности и управления томами. В следующий раз установите LVM поверх RAID, чтобы отделить эти проблемы. В этом сценарии добавление большего объема памяти так же просто, как добавление большего объема бэкэнд-памяти в группу томов и расширение логического тома для использования дополнительного бэкэнд. Этот дополнительный бэкэнд может быть другим автономным RAID1, как только вы увеличите LV на двух RAID1, у вас есть RAID 10 (полоса зеркал) для этого тома.
Ваш единственный выход на этом этапе - конвертировать ваш массив от RAID1 до RAID5, как предлагалось, чтобы избавиться от производительности записи.
В качестве побочного примечания ваш несколько разделов MD, вероятно, не выровнены должным образом, что может опуститься так же, как до 20% вашей полосы пропускания.
https://www.thomas-krenn.com/en/wiki/Partition_Alignment
https: //www.thomas-krenn. com / en / wiki / Partition_Alignment
Full - это трудное место для хранения массива. Вот почему очень важно планировать развертывание для ответа на это и протестировать его, прежде чем вы начнете производство. Резервное копирование всех ваших вещей перед продолжением и удачей.
Теперь удалось протестировать с помощью VM с Ubuntu-сервером 16.04. Я создал два виртуальных диска, каждый размером 20G и секционированный appr. 10 ГБ каждого раздела. После создания RAID1 (/dev/md0 как /, /dev/md1 в качестве /home) на sda1 / sdb1 и sda2 / sdb2 и установки, я добавил третий диск и разбил его на равные (sdc1 и sdc2, rsp.). Привод md1 следует выращивать. По мере роста md2 замените md1 на md2 и sdc2 на любой раздел, который вы создали на своем третьем диске, в следующих командах.
Во-первых, я добавил раздел на рейд:
$ sudo mdadm --add /dev/md1 /dev/sdc2
Третий раздел добавлен как «запасной» (см. вывод sudo mdadm --details /dev/md1). Затем я вырос RAID и изменил уровень рейда в одном вызове
$ sudo mdadm --grow --raid-devices=3 -l 5 /dev/md1
Теперь подождите, так как синхронизация занимает некоторое время. После выполнения синхронизации вы увидите измененное устройство рейда:
$ sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Tue Apr 18 13:58:59 2017
Raid Level : raid5
Array Size : 22392832 (21.36 GiB 22.93 GB)
Used Dev Size : 11196416 (10.68 GiB 11.47 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Apr 18 15:52:23 2017
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : testRaid:1 (local to host testRaid)
UUID : a85a5ca8:17549f5d:7dc28c7b:e24bd25b
Events : 136
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
$
Теперь вы видите, что уровень рейда изменился на 5, а размер «Массив» теперь составляет 20G. «Использованный размер устройства» по-прежнему составляет 10G, поскольку файловая система не автоматически растет. Это будет сделано с
$ sudo resize2fs /dev/md1
ext4 файловыми системами можно развернуть онлайн; без параметра размера, он расширяется до макс. Если у вас есть другая файловая система, посмотрите, возможно ли изменение размера онлайн.
df -h теперь показывает:
/dev/md1 21G 30M 20G 1% /home
Надеюсь, это поможет. И помните: всегда нужно иметь текущую и проверенную резервную копию, прежде чем играть с дисками и разделами!