Как увеличить место, выделенное до inode в файловой системе XFS

Мы сталкиваемся с проблемой с ceph osd узел, который использует файловую систему XFS.
mount стал незаписываемым. Это дает следующую ошибку:

root@fab-prod-ceph-h3:/var/lib/ceph/osd/ceph-6# touch hrushi  

касание: не может коснуться 'hrushi': Никакое пространство не оставлено на устройстве

Оба, df -i и df -h, укажите на потребление приблизительно ~40%.

Вот вывод:

Filesystem                          Inodes    IUsed     IFree IUse% Mounted on
/dev/sda2                        178921472    60895 178860577    1% /
udev                               8240393      597   8239796    1% /dev
tmpfs                              8242709      582   8242127    1% /run
none                               8242709        3   8242706    1% /run/lock
none                               8242709        1   8242708    1% /run/shm
/dev/sdd1                         73111872 25981652  47130220   36% /var/lib/ceph/osd/ceph-8
/dev/sdc1                         73111872 30445183  42666689   42% /var/lib/ceph/osd/ceph-7
/dev/sde1                         97530624  1913758  95616866    2% /var/lib/ceph/osd/ceph-15
/dev/sdf1                         97530624  2680246  94850378    3% /var/lib/ceph/osd/ceph-16
/dev/sdg1                        195206272  2206318 192999954    2% /var/lib/ceph/osd/ceph-17
/dev/sdb1                        146223870 33812416 112411454   24% /var/lib/ceph/osd/ceph-6
10.100.112.53:/srv/data/Alcatraz  98304000 15954028  82349972   17% /exporter

root@fab-prod-ceph-h3:/var/lib/ceph/osd/ceph-6# df -h
Filesystem                        Size  Used Avail Use% Mounted on
/dev/sda2                         2.7T  313G  2.2T  13% /
udev                               32G   12K   32G   1% /dev
tmpfs                              13G  364K   13G   1% /run
none                              5.0M     0  5.0M   0% /run/lock
none                               32G     0   32G   0% /run/shm
/dev/sdd1                         2.8T  1.8T 1010G  64% /var/lib/ceph/osd/ceph-8
/dev/sdc1                         2.8T  1.7T  1.2T  60% /var/lib/ceph/osd/ceph-7
/dev/sde1                         3.7T  158G  3.5T   5% /var/lib/ceph/osd/ceph-15
/dev/sdf1                         3.7T  185G  3.5T   5% /var/lib/ceph/osd/ceph-16
/dev/sdg1                         7.3T  155G  7.2T   3% /var/lib/ceph/osd/ceph-17
/dev/sdb1                         2.8T  1.9T  937G  67% /var/lib/ceph/osd/ceph-6
10.100.112.53:/srv/data/Alcatraz  1.5T  901G  502G  65% /exporter

Несколько общественных регистраций форума предложили увеличить место, выделенное для сохранения inodes.

Начальная буква:

root@fab-prod-ceph-h3:/var/lib/ceph/osd/ceph-6# xfs_info /dev/sdb1
meta-data=/dev/sdb1              isize=2048   agcount=32, agsize=22847480 blks
         =                       sectsz=512   attr=2
data     =                       bsize=4096   blocks=731119355, imaxpct=5
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal               bsize=4096   blocks=356991, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

Расширенный

root@fab-prod-ceph-h3:/var/lib/ceph/osd/ceph-6# xfs_growfs -m 10 /var/lib/ceph/osd/ceph-6
meta-data=/dev/sdb1              isize=2048   agcount=32, agsize=22847480 blks
         =                       sectsz=512   attr=2
data     =                       bsize=4096   blocks=731119355, imaxpct=5
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal               bsize=4096   blocks=356991, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
inode max percent changed from 5 to 10

root@fab-prod-ceph-h3:/var/lib/ceph/osd/ceph-6# xfs_db -f -c "sb 0" -c "p" /dev/sdb1 | grep imax_pct
imax_pct = 5

Примечание:
Это значение не изменилось.

Как я разрешаю эту проблему?

Я попытался обновить версию ядра от 3,5 до 3,15 также, но без успеха.

2
задан 8 September 2018 в 08:27

1 ответ

Мы закончили тем, что клонировали диск к диску большего размера и затем развернули его в некоторой степени. Диски стали монтируемыми, и мы могли продолжить использовать osd устройство.

0
ответ дан 2 December 2019 в 07:04

Другие вопросы по тегам:

Похожие вопросы: