Как сказать, что пара дисков RAID1 успешно зеркально отражает?

Это не срочная проблема, но я хотел бы знать, использую ли я в настоящее время оба из своих жестких дисков (и/или если я могу зафиксировать это).

По существу я купил этот компьютер без ОС, и я успешно установил Сервер Ubuntu на нем.

Компьютер идет с 2 жесткими дисками на 3 ТБ.

Мое понимание - то, что у меня может или быть конфигурация RAID0, чтобы иметь 6 ТБ пространства памяти или конфигурацию RAID1 где 1 3 зеркала диска емкостью другие 3 диска емкостью.

Учитывая, что я начал выполнять анализ сервера, я соглашаюсь с зеркальным отражением жесткого диска (RAID1).

Однако я не думаю, что успешно сделал это. Например, если я проверяю мой /proc/mdstat файл, это - то, что он говорит:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
      2930264064 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sda[1](S) sdb[0](S)
      5040 blocks super external:imsm

unused devices: <none>

Аналогично, это, как те диски распознаны с помощью lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

NAME         SIZE FSTYPE          TYPE  MOUNTPOINT
sda          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sdb          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sr0         1024M                 rom

Однако это - свободное место, что у меня есть использование df:

Filesystem      1K-blocks      Used  Available Use% Mounted on
udev             16370772         0   16370772   0% /dev
tmpfs             3280440       940    3279500   1% /run
/dev/md126p2   2882700496 223265236 2512931992   9% /
tmpfs            16402180         0   16402180   0% /dev/shm
tmpfs                5120         0       5120   0% /run/lock
tmpfs            16402180         0   16402180   0% /sys/fs/cgroup
/dev/md126p1       523248      6152     517096   2% /boot/efi
tmpfs             3280436         0    3280436   0% /run/user/1000

Так, мои вопросы следующие:

  1. Я на самом деле зеркально отражаю свой жесткий диск с конфигурацией RAID1?
    Если так, как я могу восстановиться, мой жесткий диск - что-то, идет не так, как надо?

    От /proc/mdstat файл, похоже, что существует своего рода ссылка между дисками (так как md126 перечислен с super external:/md127/0, на 2-й строке)

  2. Если оба жестких диска в настоящее время не используются (для зеркального отражения RAID1), что я должен изменить? Я могу начать зеркально отражать свой первый жесткий диск, не стирая все в настоящее время на первом диске?

В то время как я не закончил посещать урок, у меня есть некоторые другие примечания, что я думал, могло бы быть хорошим для добавления:

Комментарий/обновление № 2 (Комментарий / Обновлением № 1 является "Ответ"),

1) Вы видите следующую информацию с sudo fdisk -l:

Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    1050623    1048576  512M EFI System
/dev/sda2  1050624 5860526079 5859475456  2.7T Linux filesystem

Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    1050623    1048576  512M EFI System
/dev/sdb2  1050624 5860526079 5859475456  2.7T Linux filesystem

Disk /dev/md126: 2.7 TiB, 3000590401536 bytes, 5860528128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device         Start        End    Sectors  Size Type
/dev/md126p1    2048    1050623    1048576  512M EFI System
/dev/md126p2 1050624 5860526079 5859475456  2.7T Linux filesystem

Так как это уже говорит, что/dev/sdb является файловой системой Linux, я думаю, что часть в порядке.

Для регистрации онлайн, я установил UUID, чтобы быть "xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx", но я иначе обеспечил точный вывод.

2) В то время как я хочу быть осторожным, я думаю, что следующий шаг включает команду mkfs.ext4. Однако я хочу быть осторожным и узнать больше, прежде чем я сделаю что-то, что может (или не может) влиять на мою текущую файловую систему.

Если я пытаюсь использовать mount команда, затем это - то, что я в настоящее время вижу:

$:/mnt$ sudo mount /dev/sda1 /mnt/test1
mount: /mnt/test1: special device /dev/sda1 does not exist.
$:/mnt$ sudo mount /dev/sda2 /mnt/test1
mount: /mnt/test1: special device /dev/sda2 does not exist.
$:/mnt$ sudo mount /dev/sdb1 /mnt/test1
mount: /mnt/test1: /dev/sdb1 already mounted or mount point busy.
$:/mnt$ sudo mount /dev/sdb2 /mnt/test1
mount: /mnt/test1: /dev/sdb2 already mounted or mount point busy.

К вашему сведению я ранее узнал о fdisk, но я не видел это в более ранних примечаниях. Иначе я добавил новые примечания от следующего класса (классов):

https://www.linkedin.com/learning/building-an-ubuntu-home-server/add-storage-with-a-local-disk

2
задан 29 September 2019 в 02:30

2 ответа

Хотя я до сих пор не уверен, как проверить восстановление данных, я думаю, что мой вопрос содержал ответ, подтверждающий, что я настроил RAID1:

Таким образом, эти диски распознаются также используя lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

NAME         SIZE FSTYPE          TYPE  MOUNTPOINT
sda          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sdb          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sr0         1024M                 rom

Если не было конфигурации рейда, то я не думаю, что это должно было указывать «raid1» выше для обоих жестких дисков (sda и sdb) .

0
ответ дан 9 December 2019 в 22:03

Это все еще не точно ответ. Однако, если я использую функцию администрирования mdadm MD, затем я вижу следующую информацию:

я полагаю, что это для 1-го жесткого диска RAID:

$ sudo mdadm --detail /dev/md126
/dev/md126:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb
$ sudo mdadm --detail /dev/md126p1
/dev/md126p1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 524288 (512.00 MiB 536.87 MB)
     Used Dev Size : 18446744073709551615
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

$ sudo mdadm --detail /dev/md126p2
/dev/md126p2:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2929737728 (2794.02 GiB 3000.05 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

и я полагаю, что это для 2-го жесткого диска RAID:

$ sudo mdadm --detail /dev/md127
/dev/md127:
           Version : imsm
        Raid Level : container
     Total Devices : 2

   Working Devices : 2


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
     Member Arrays : /dev/md/Volume1

    Number   Major   Minor   RaidDevice

       -       8        0        -        /dev/sda
       -       8       16        -        /dev/sdb

Иначе, я предполагаю, что конфигурация RAID1 настраивается (и именно это md126p1 и md126p2 обозначают)?

, Например, это действительно говорит Raid Level : raid1 для 1-го диска, хотя интересно, почему это не говорит, что для 2-го диска

Для регистрации онлайн, я установил UUID, чтобы быть "xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx", но я иначе обеспечил точный вывод.

существует также 4 других файла, где я могу искать дополнительную информацию, включая "Volume1", которому я верю, относится к 2-му диску?

$ ls /dev/md/
imsm0      Volume1    Volume1p1  Volume1p2
~$ sudo mdadm --detail /dev/md/Volume1
/dev/md/Volume1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

существуют также mdadm --create, mdadm --grow, и mdadm --incremental функции.

0
ответ дан 2 December 2019 в 05:58

Другие вопросы по тегам:

Похожие вопросы: