Можно ли объединить физические диски в один том для использования в RAID-массиве?

У меня есть домашний медиасервер, который в настоящее время имеет 4 диска по 4 ТБ в Raid5 с использованием mdadm. Это дает мне 12 ТБ пространства в настоящее время, и оно почти закончилось. Я хочу добавить больше места, но хотел бы использовать диски большего объема. В конечном итоге я планирую установить 3 диска по 12 ТБ в Raid5, но не хочу тратить столько за один раз.

Мне интересно, возможен ли следующий путь:

  1. Покупка и установка одного диска емкостью 12 ТБ, создание раздела емкостью 8 ТБ и раздела емкостью 4 ТБ.
  2. Скопировать 8 ТБ моих существующих данных на раздел 8 ТБ, а оставшиеся 4 ТБ - на новый раздел 4 ТБ.
  3. Используйте LVM для объединения дисков 4 ТБ в 2 логических тома 8 ТБ.
  4. С помощью mdadm объедините один физический 8 ТБ и 2 логических 8 ТБ тома в RAID5-массив на 16 ТБ (сохранив данные на физическом 8 ТБ диске).
  5. Скопируйте 4 ТБ данных на другом разделе в новый том RAID, оставив 4 ТБ пространства.
  6. Когда я приближусь к заполнению этого объема (вероятно, через год или больше), куплю 2 новых диска по 12 ТБ, создам разделы по 8 ТБ на каждом, перенесу RAID на 3 диска по 12 ТБ, затем увеличу разделы до 12 ТБ, создав диск RAID5 объемом 24 ТБ

Будет ли это работать?

У кого-нибудь есть более разумный способ сделать это, не включающий покупку 3 дисков прямо сейчас?

.
0
задан 23 October 2020 в 04:06

1 ответ

Ну, это не вызвало особой активности или интереса, но я решил попробовать. Ответ: да, это работает. Чтобы добраться туда, потребовалось несколько дней измельчения RAID. Вот доказательство (после шага 4).

$ sudo lsblk
NAME                 MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
loop0                  7:0    0  97.8M  1 loop  /snap/core/10185
loop1                  7:1    0  97.7M  1 loop  /snap/core/10126
loop2                  7:2    0  55.4M  1 loop  /snap/core18/1932
loop3                  7:3    0  69.2M  1 loop  /snap/lxd/18077
loop4                  7:4    0  69.2M  1 loop  /snap/lxd/18137
loop5                  7:5    0  55.3M  1 loop  /snap/core18/1885
sda                    8:0    0   3.7T  0 disk  
└─sda1                 8:1    0   3.7T  0 part  
  └─8tbraidvol1-vol1 253:0    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sdb                    8:16   0   3.7T  0 disk  
└─sdb1                 8:17   0   3.7T  0 part  
  └─8tbraidvol1-vol1 253:0    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sdc                    8:32   0   3.7T  0 disk  
└─sdc1                 8:33   0   3.7T  0 part  
  └─8tbraidvol2-vol2 253:1    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sdd                    8:48   0   3.7T  0 disk  
└─sdd1                 8:49   0   3.7T  0 part  
  └─8tbraidvol2-vol2 253:1    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sde                    8:64   1  10.9T  0 disk  
├─sde1                 8:65   1   7.3T  0 part  
│ └─md127              9:127  0  14.6T  0 raid5 /mnt/raid
└─sde2                 8:66   1   3.7T  0 part  /mnt/spare
sr0                   11:0    1  1024M  0 rom   
nvme0n1              259:0    0 465.8G  0 disk  
├─nvme0n1p1          259:1    0   512M  0 part  /boot/efi
└─nvme0n1p2          259:2    0 465.3G  0 part  /

$ sudo df -h
Filesystem      Size  Used Avail Use% Mounted on
udev             16G     0   16G   0% /dev
tmpfs           3.2G  4.2M  3.2G   1% /run
/dev/nvme0n1p2  457G  129G  305G  30% /
tmpfs            16G     0   16G   0% /dev/shm
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            16G     0   16G   0% /sys/fs/cgroup
/dev/nvme0n1p1  511M  7.8M  504M   2% /boot/efi
/dev/loop1       98M   98M     0 100% /snap/core/10126
/dev/loop0       98M   98M     0 100% /snap/core/10185
/dev/loop2       56M   56M     0 100% /snap/core18/1932
/dev/loop3       70M   70M     0 100% /snap/lxd/18077
/dev/loop5       56M   56M     0 100% /snap/core18/1885
/dev/loop4       70M   70M     0 100% /snap/lxd/18137
tmpfs           3.2G     0  3.2G   0% /run/user/1000
/dev/md127       15T  6.8T  7.0T  50% /mnt/raid
/dev/sde2       3.6T  3.3T  109G  97% /mnt/spare
0
ответ дан 5 November 2020 в 23:11

Другие вопросы по тегам:

Похожие вопросы: