Старый Raid1, работающий над новой установкой Сервера Ubuntu?

Я недавно сделал новую установку Сервера Ubuntu 18.04 по моим старым 16,04 установкам. У меня была конфигурация Raid1 в моей старой установке, которую я администрировал через mdadm. Кажется, как будто моя конфигурация Raid1 все еще присутствует в 18,04 установках (см. ниже).

NAME    FSTYPE              SIZE MOUNTPOINT        LABEL
loop0   squashfs           86.9M /snap/core/4917   
loop1   squashfs             87M /snap/core/5145   
sda                        57.6G                   
├─sda1                        1M                   
└─sda2  ext4               57.6G /                 
sdb                         1.8T                   
└─sdb1  linux_raid_member   1.8T                   homeserver:0
  └─md0 ext4                1.8T /media/raiddrives 
sdc                         1.8T                   
└─sdc1  linux_raid_member   1.8T                   homeserver:0
  └─md0 ext4                1.8T /media/raiddrives 
sdd                       931.5G                   
└─sdd1  ext4              931.5G                   
sr0                        1024M                   

Мой вопрос: Что я должен сделать, чтобы иметь этот Raid1, работающий как прежде? Я должен обновить mdadm.conf, или это достаточно только, чтобы смонтировать, что md0 управляют способом, которым это было прежде? Я теперь временно смонтировал его в/media/raiddrives.

В то время как я в нем, я хотел бы отправить другое, но так или иначе связанный вопрос. Я могу использовать свою текущую конфигурацию Raid1, если я, где установить только сервер Owncloud Raspberry Pi с, например, Ядро Ubuntu? Какова была бы оптимальная установка для NAS с помощью существующего Набега?

Спасибо!

1
задан 14 August 2018 в 12:03

1 ответ

Нет обычно ничего для конфигурирования, когда миграция существующего mdadm основывала RAID-массив к новой машине, mdadm должен просто обнаружить и активировать Ваш RAID-массив.

В этом случае, Ваш RAID были обнаружены как /dev/md0 и Вы смогли смонтировать его под /media/raiddrives.

Я могу только рекомендовать взглянуть на вывод sudo mdadm --detail /dev/md0, и проверьте, что состояние является чистым как в следующем примере:

sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sat Aug  6 14:29:19 2016
     Raid Level : raid10
     Array Size : 104841216 (99.98 GiB 107.36 GB)
  Used Dev Size : 104841216 (99.98 GiB 107.36 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Tue Aug 14 13:49:15 2018
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 512K

           Name : EDITED_HOSTNAME:0  (local to host EDITED_HOSTNAME)
           UUID : 772e6cc4:5af56198:1f0a2ec5:141b3e7e
         Events : 4832

    Number   Major   Minor   RaidDevice State
       3       8        2        0      active sync set-A   /dev/sda2
       2       8       18        1      active sync set-B   /dev/sdb2
1
ответ дан 7 December 2019 в 15:15

Другие вопросы по тегам:

Похожие вопросы: