Я Развернул свой Набег 10 до Набега 5 использований mdadm утилиты. Я развернул набег с помощью "sudo resize2fs/dev/md0", я затем проверил файловую систему с помощью "sudo e2fsck-f/dev/md0", я также выполнил "степени sudo tune2fs/dev/md0" и обновил файловую систему до 64 битов для преобладания над 16 ТБ, макс. ограничивают.
Однако я не могу получить диск подойти wil полная емкость хранения 18.2 ТБ, которых я выполняю "df-h", я получаю capcity 9.1 ТБ, но если я выполняю "lsblk", я получаю полную мощность 18.2 ТБ, посмотрите выводы набега и перечислите результаты ниже:
itadmin@tronserv:~$ df -h
Filesystem Size Used Avail Use% Mounted on
udev 3.9G 0 3.9G 0% /dev
tmpfs 787M 5.5M 781M 1% /run
/dev/sdd3 196G 3.0G 183G 2% /
tmpfs 3.9G 0 3.9G 0% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/loop0 90M 90M 0 100% /snap/core/8268
/dev/sdd1 511M 6.1M 505M 2% /boot/efi
/dev/md0 9.1T 7.8T 801G 91% /data/raid1
/dev/loop2 92M 92M 0 100% /snap/core/8592
tmpfs 787M 0 787M 0% /run/user/1000
itadmin@tronserv:~$ sudo lsblk
[sudo] password for itadmin:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 89.1M 1 loop /snap/core/8268
loop2 7:2 0 91.3M 1 loop /snap/core/8592
sda 8:0 0 9.1T 0 disk
└─sda1 8:1 0 9.1T 0 part
└─md0 9:0 0 18.2T 0 raid5 /data/raid1
sdb 8:16 0 9.1T 0 disk
└─sdb1 8:17 0 9.1T 0 part
└─md0 9:0 0 18.2T 0 raid5 /data/raid1
sdc 8:32 0 9.1T 0 disk
└─sdc1 8:33 0 9.1T 0 part
└─md0 9:0 0 18.2T 0 raid5 /data/raid1
sdd 8:48 0 238.5G 0 disk
├─sdd1 8:49 0 512M 0 part /boot/efi
├─sdd2 8:50 0 12G 0 part [SWAP]
└─sdd3 8:51 0 200G 0 part /
itadmin@tronserv:~$ cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdc1[3] sda1[1] sdb1[2]
19532605696 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
bitmap: 0/73 pages [0KB], 65536KB chunk
itadmin@tronserv:~$ sudo mdadm --query --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Dec 16 12:59:46 2019
Raid Level : raid5
Array Size : 19532605696 (18627.74 GiB 20001.39 GB)
Used Dev Size : 9766302848 (9313.87 GiB 10000.69 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Fri Feb 14 16:39:34 2020
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : bitmap
Name : tronserv:0 (local to host tronserv)
UUID : ce4acffc:c98f3dfe:c208ff1a:002728e7
Events : 74713
Number Major Minor RaidDevice State
2 8 17 0 active sync /dev/sdb1
1 8 1 1 active sync /dev/sda1
3 8 33 2 active sync /dev/sdc1
Какие-либо Идеи о том, как заставить целый набег подходить как Раздел на 18.2 ТБ?
Существует несколько слоев (виртуального) устройства. Все они должны изменить размер:
mdadm --grow /dev/md0 --size=max
)resize2fs /dev/md0
)(Вы не используете lvm, но это было бы другим слоем),
если Вы только изменяете размер файловой системы, она все еще видит старый размер объема набега, таким образом, необходимо сделать mdadm
звоните сначала. или более общий: пройдите все слои.
Но существует другая вещь: Я вижу, что Ваша установка имеет 3 устройства, но Ваш предыдущий набег 10 (если правильно используется), вероятно, имел 4 устройства. Так, где Ваше 4-е устройство?