Невозможно изменить размер массива LVM2 RAID 5 после добавления нового диска

Я гуглил, пока не заболели пальцы. По какой-то причине я не могу увеличить свой LV после добавления дополнительного (идентичного) диска в мою VG.

Я думаю, что успешно добавил свой четвертый диск в массив. Каждый диск - это один и тот же накопитель WD 10 ТБ (форматы до 9,1 ТБ). Мой исходный массив - 3 диска. Итак, в настоящее время у меня есть 18,2 ТБ свободного места. Диски: / dev / sdc, / dev / sdd, / dev / sde, и я добавляю / dev / sdf.

Когда я делаю vgdisplay , результат получается следующим образом:

--- Volume group ---
  VG Name               data
  System ID
  Format                lvm2
  Metadata Areas        4
  Metadata Sequence No  30
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                4
  Act PV                4
  VG Size               36.38 TiB
  PE Size               4.00 MiB
  Total PE              9537532
  Alloc PE / Size       7153149 / <27.29 TiB
  Free  PE / Size       2384383 / <9.10 TiB
  VG UUID               4eex8c-TZo3-P7N0-pp8m-jQ9c-uTf2-lZe1XN

Я читаю это так: количество LV равно 1 (что правильно), а количество PV равно 4. (тоже правильно).Когда я читал это, общий размер VG составляет 36,4 ТБ или 4 x 9,1 ТБ (тоже правильно), а доступный PE составляет ~ 27,3 ТБ (тоже правильно).

Но здесь все падает ...

Я выполнил

lvextend -l +100%FREE /dev/data/data

и

lvextend --extents +100%FREE /dev/data/data

Обе команды возвращают следующее:

  Using stripesize of last segment 64.00 KiB
  Size of logical volume data/data unchanged from 18.19 TiB (4768764 extents).
  Logical volume data/data successfully resized.

и когда я выполняю

resize2fs /dev/data/data

, возвращается

resize2fs 1.45.5 (07-Jan-2020)
The filesystem is already 4883214336 (4k) blocks long.  Nothing to do!

Когда я выполните

df -h

Я получаю

/dev/mapper/data-data                 19T   15T  2.7T  85% /mnt/sdc

Наконец,

lsblk

дает:

sdc                             8:32   0   9.1T  0 disk
├─data-data_rmeta_2           253:6    0     4M  0 lvm
│ └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
└─data-data_rimage_2          253:7    0   9.1T  0 lvm
  └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
sdd                             8:48   0   9.1T  0 disk
├─data-data_rmeta_1           253:4    0     4M  0 lvm
│ └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
└─data-data_rimage_1          253:5    0   9.1T  0 lvm
  └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
sde                             8:64   0   9.1T  0 disk
├─data-data_rmeta_0           253:2    0     4M  0 lvm
│ └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
└─data-data_rimage_0          253:3    0   9.1T  0 lvm
  └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
sdf                             8:80   0   9.1T  0 disk

Итак, я в тупике. Кто-нибудь может мне помочь? У меня быстро заканчивается место.

Заранее большое спасибо !!

b

1
задан 6 April 2021 в 06:30

1 ответ

У меня была аналогичная проблема, мне удалось решить ее, изменив политику распределения (у меня было установлено смежное вместо стандартного нормального )

lvextend / dev / UPLOADS / data / dev / sdd1 --alloc normal

0
ответ дан 23 April 2021 в 23:26

Другие вопросы по тегам:

Похожие вопросы: