Это не срочная проблема, но я хотел бы знать, использую ли я в настоящее время оба из своих жестких дисков (и/или если я могу зафиксировать это).
По существу я купил этот компьютер без ОС, и я успешно установил Сервер Ubuntu на нем.
Компьютер идет с 2 жесткими дисками на 3 ТБ.
Мое понимание - то, что у меня может или быть конфигурация RAID0, чтобы иметь 6 ТБ пространства памяти или конфигурацию RAID1 где 1 3 зеркала диска емкостью другие 3 диска емкостью.
Учитывая, что я начал выполнять анализ сервера, я соглашаюсь с зеркальным отражением жесткого диска (RAID1).
Однако я не думаю, что успешно сделал это. Например, если я проверяю мой /proc/mdstat
файл, это - то, что он говорит:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
2930264064 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
5040 blocks super external:imsm
unused devices: <none>
Аналогично, это, как те диски распознаны с помощью lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sdb 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sr0 1024M rom
Однако это - свободное место, что у меня есть использование df
:
Filesystem 1K-blocks Used Available Use% Mounted on
udev 16370772 0 16370772 0% /dev
tmpfs 3280440 940 3279500 1% /run
/dev/md126p2 2882700496 223265236 2512931992 9% /
tmpfs 16402180 0 16402180 0% /dev/shm
tmpfs 5120 0 5120 0% /run/lock
tmpfs 16402180 0 16402180 0% /sys/fs/cgroup
/dev/md126p1 523248 6152 517096 2% /boot/efi
tmpfs 3280436 0 3280436 0% /run/user/1000
Так, мои вопросы следующие:
Я на самом деле зеркально отражаю свой жесткий диск с конфигурацией RAID1?
Если так, как я могу восстановиться, мой жесткий диск - что-то, идет не так, как надо?
От /proc/mdstat
файл, похоже, что существует своего рода ссылка между дисками (так как md126
перечислен с super external:/md127/0
, на 2-й строке)
Если оба жестких диска в настоящее время не используются (для зеркального отражения RAID1), что я должен изменить? Я могу начать зеркально отражать свой первый жесткий диск, не стирая все в настоящее время на первом диске?
В то время как я не закончил посещать урок, у меня есть некоторые другие примечания, что я думал, могло бы быть хорошим для добавления:
Комментарий/обновление № 2 (Комментарий / Обновлением № 1 является "Ответ"),
1) Вы видите следующую информацию с sudo fdisk -l
:
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Device Start End Sectors Size Type
/dev/sda1 2048 1050623 1048576 512M EFI System
/dev/sda2 1050624 5860526079 5859475456 2.7T Linux filesystem
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Device Start End Sectors Size Type
/dev/sdb1 2048 1050623 1048576 512M EFI System
/dev/sdb2 1050624 5860526079 5859475456 2.7T Linux filesystem
Disk /dev/md126: 2.7 TiB, 3000590401536 bytes, 5860528128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Device Start End Sectors Size Type
/dev/md126p1 2048 1050623 1048576 512M EFI System
/dev/md126p2 1050624 5860526079 5859475456 2.7T Linux filesystem
Так как это уже говорит, что/dev/sdb является файловой системой Linux, я думаю, что часть в порядке.
Для регистрации онлайн, я установил UUID, чтобы быть "xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx", но я иначе обеспечил точный вывод.
2) В то время как я хочу быть осторожным, я думаю, что следующий шаг включает команду mkfs.ext4
. Однако я хочу быть осторожным и узнать больше, прежде чем я сделаю что-то, что может (или не может) влиять на мою текущую файловую систему.
Если я пытаюсь использовать mount
команда, затем это - то, что я в настоящее время вижу:
$:/mnt$ sudo mount /dev/sda1 /mnt/test1
mount: /mnt/test1: special device /dev/sda1 does not exist.
$:/mnt$ sudo mount /dev/sda2 /mnt/test1
mount: /mnt/test1: special device /dev/sda2 does not exist.
$:/mnt$ sudo mount /dev/sdb1 /mnt/test1
mount: /mnt/test1: /dev/sdb1 already mounted or mount point busy.
$:/mnt$ sudo mount /dev/sdb2 /mnt/test1
mount: /mnt/test1: /dev/sdb2 already mounted or mount point busy.
К вашему сведению я ранее узнал о fdisk
, но я не видел это в более ранних примечаниях. Иначе я добавил новые примечания от следующего класса (классов):
https://www.linkedin.com/learning/building-an-ubuntu-home-server/add-storage-with-a-local-disk
Хотя я до сих пор не уверен, как проверить восстановление данных, я думаю, что мой вопрос содержал ответ, подтверждающий, что я настроил RAID1:
Таким образом, эти диски распознаются также используя lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sdb 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sr0 1024M rom
Если не было конфигурации рейда, то я не думаю, что это должно было указывать «raid1» выше для обоих жестких дисков (sda и sdb) .
Это все еще не точно ответ. Однако, если я использую функцию администрирования mdadm
MD, затем я вижу следующую информацию:
я полагаю, что это для 1-го жесткого диска RAID:
$ sudo mdadm --detail /dev/md126
/dev/md126:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
$ sudo mdadm --detail /dev/md126p1
/dev/md126p1:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 524288 (512.00 MiB 536.87 MB)
Used Dev Size : 18446744073709551615
Raid Devices : 2
Total Devices : 2
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
$ sudo mdadm --detail /dev/md126p2
/dev/md126p2:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 2929737728 (2794.02 GiB 3000.05 GB)
Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
и я полагаю, что это для 2-го жесткого диска RAID:
$ sudo mdadm --detail /dev/md127
/dev/md127:
Version : imsm
Raid Level : container
Total Devices : 2
Working Devices : 2
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Member Arrays : /dev/md/Volume1
Number Major Minor RaidDevice
- 8 0 - /dev/sda
- 8 16 - /dev/sdb
Иначе, я предполагаю, что конфигурация RAID1 настраивается (и именно это md126p1
и md126p2
обозначают)?
, Например, это действительно говорит Raid Level : raid1
для 1-го диска, хотя интересно, почему это не говорит, что для 2-го диска
Для регистрации онлайн, я установил UUID, чтобы быть "xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx", но я иначе обеспечил точный вывод.
существует также 4 других файла, где я могу искать дополнительную информацию, включая "Volume1", которому я верю, относится к 2-му диску?
$ ls /dev/md/
imsm0 Volume1 Volume1p1 Volume1p2
~$ sudo mdadm --detail /dev/md/Volume1
/dev/md/Volume1:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
существуют также mdadm --create
, mdadm --grow
, и mdadm --incremental
функции.