Массив RAID1, потерянный после обновления от Ubuntu 11.10 до 13,04

У меня была рабочая Ubuntu 11.10 с / на SSD (/dev/sdc) и / домой на массиве программного обеспечения RAID1, который находился на двух разделах на/dev/sda и/dev/sdb (идентичные диски), соответственно. Это было настроено как SW RAID. HW материнской платы RAID отключен.
Сегодня, я обновил от 11,10 до 13,04 использований живого CD. Я выбрал опцию обновления существующих 11.10 и сдерживающих пользовательских данных. Сначала, я не мог загрузиться после обновления. Я подозревал, что установке не удалось обновить личинку правильно на sdc, таким образом, я сначала попытался восстановить его путем начальной загрузки с живого CD и установки и использования boot-repair. Это не могло завершиться по некоторой неясной причине, таким образом, я вместо этого переустановил личинку на sdc вручную, как описано здесь: http://www.howtogeek.com/114884/how-to-repair-grub2-when-ubuntu-wont-boot/. После этого Ubuntu 13.04 загрузилась к основанному на тексте приглашению ко входу в систему, которое не приняло бы имя пользователя и пароль, которое я указал во время установки.
Я затем установил 13.04 с живого CD снова, на этот раз выбрав к "обновлению" теперь существующие 13,04 установок на 13,04 (снова, опция со сдерживающими пользовательскими файлами и т.д.). После этого 13.04 может успешно загрузиться к графическому входу в систему и позволяет мне войти в систему без ошибок.
Теперь, единственная остающаяся проблема, что мой массив RAID1 кажется потерянным :-( На sda, используемом, чтобы быть (в этом порядке):

  1. членский раздел RAID на 699 ГБ
  2. приблизительно 200 ГБ освобожденного пространства
  3. 109 ГБ (ext3 или ext4 - не помнят), раздел, содержащий резервное копирование предыдущей установки Ubuntu.

На sdb, используемом, чтобы быть:

  1. членский раздел RAID на 699 ГБ
  2. приблизительно 100 ГБ (ext3 или ext4 - не помнят), раздел, содержащий резервное копирование моей новой установки Ubuntu.
  3. приблизительно 150 ГБ (ext3 или ext4 - не помнят), раздел, содержащий некоторые файлы.
  4. приблизительно 50 ГБ (ext3 или ext4 - не помнят), раздел, содержащий некоторые файлы.

При исследовании дисков теперь, нескольких из разделов не стало - в основном все на sdb. fdisk -lu теперь говорит (извините о датчанах - я надеюсь, что можно предположить то, по сравнению с чем они подразумевают fdisk вывод на Вашем предпочтительном языке):

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 hoveder, 63 sektorer/spor, 121601 cylindre, i alt 1953525168 sektorer
Enheder = sektorer af 1 * 512 = 512 byte
Sektorstørrelse (logisk/fysisk): 512 byte / 512 byte
I/O-størrelse (minimum/optimal): 512 byte / 512 byte
Diskidentifikation: 0x000d9c82

    Enhed Opstart   Start         Slut     Blokke   Id  System
/dev/sda1              63  1364496839   682248388+   0  Tom
/dev/sda2   *  1740050432  1953519615   106734592   83  Linux

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 hoveder, 63 sektorer/spor, 121601 cylindre, i alt 1953525168 sektorer
Enheder = sektorer af 1 * 512 = 512 byte
Sektorstørrelse (logisk/fysisk): 512 byte / 512 byte
I/O-størrelse (minimum/optimal): 512 byte / 512 byte
Diskidentifikation: 0x000bf717

    Enhed Opstart   Start         Slut     Blokke   Id  System
/dev/sdb1      1577969664  1869625343   145827840   83  Linux
/dev/sdb2      1869628635  1953520064    41945715   83  Linux
/dev/sdb3      1364494336  1577963519   106734592   83  Linux
/dev/sdb4              63  1364480774   682240356    0  Tom

Partitionstabellens indgange er ikke i diskrækkefølge

Disk /dev/sdc: 120.0 GB, 120034123776 bytes
255 hoveder, 63 sektorer/spor, 14593 cylindre, i alt 234441648 sektorer
Enheder = sektorer af 1 * 512 = 512 byte
Sektorstørrelse (logisk/fysisk): 512 byte / 512 byte
I/O-størrelse (minimum/optimal): 512 byte / 512 byte
Diskidentifikation: 0x0008fd03

    Enhed Opstart   Start         Slut     Blokke   Id  System
/dev/sdc1   *        2048   209295359   104646656   83  Linux
/dev/sdc2       209297406   234440703    12571649    5  Udvidet
/dev/sdc5       209297408   234440703    12571648   82  Linux swap / Solaris

Disk /dev/mapper/ddf1_RAID: 2000.1 GB, 2000131457024 bytes
255 hoveder, 63 sektorer/spor, 243168 cylindre, i alt 3906506752 sektorer
Enheder = sektorer af 1 * 512 = 512 byte
Sektorstørrelse (logisk/fysisk): 512 byte / 512 byte
I/O-størrelse (minimum/optimal): 32768 byte / 65536 byte
Diskidentifikation: 0x000d9c82

                 Enhed Opstart   Start         Slut     Blokke   Id  System
/dev/mapper/ddf1_RAID1              63  1364496839   682248388+   0  Tom
Partition 1 starter ikke på en fysisk sektorgrænse.
/dev/mapper/ddf1_RAID2   *  1740050432  1953519615   106734592   83  Linux

Disk /dev/mapper/ddf1_RAID1: 698.6 GB, 698622349824 bytes
255 hoveder, 63 sektorer/spor, 84935 cylindre, i alt 1364496777 sektorer
Enheder = sektorer af 1 * 512 = 512 byte
Sektorstørrelse (logisk/fysisk): 512 byte / 512 byte
I/O-størrelse (minimum/optimal): 32768 byte / 65536 byte
Justeringsforskydning: 512 byte
Diskidentifikation: 0xbd223da2

Disk /dev/mapper/ddf1_RAID1 indeholder ikke en gyldig partitionstabel

Disk /dev/mapper/ddf1_RAID2: 109.3 GB, 109296222208 bytes
255 hoveder, 63 sektorer/spor, 13287 cylindre, i alt 213469184 sektorer
Enheder = sektorer af 1 * 512 = 512 byte
Sektorstørrelse (logisk/fysisk): 512 byte / 512 byte
I/O-størrelse (minimum/optimal): 32768 byte / 65536 byte
Diskidentifikation: 0x00000000

Disk /dev/mapper/ddf1_RAID2 indeholder ikke en gyldig partitionstabel

Выполнение blkid говорит:

/dev/sda: UUID="M-,^[eRM-^FM-^@%:M-,^[eRM-D^[eRM-\^[eRM-^?M-^?M-^?M-^?" TYPE="ddf_raid_member" 
/dev/sdb: UUID="M-,^[eRM-^FM-^@%:M-,^[eRM-D^[eRM-\^[eRM-^?M-^?M-^?M-^?" TYPE="ddf_raid_member" 
/dev/sdc1: UUID="32579810-0388-416d-bb49-7031ac2c2975" TYPE="ext4" 
/dev/sdc5: UUID="b7507355-effd-4dbc-9b4e-0546bca036f4" TYPE="swap" 

Я попробовал mdadm --examine /dev/sda и mdadm --examine /dev/sdb который показал, что первая часть sda и все sdb, казалось, содержали членские разделы RAID0:

/dev/sda:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 43d3cf98
         Family : 43d3cf98
     Generation : 00000003
     Attributes : All supported
           UUID : 6792b89b:e5162c11:b694727d:de71f59c
       Checksum : 7a5f4777 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : WD-WMATV3627263
          State : active
             Id : 00000000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

[Volume0]:
           UUID : 4af84c7c:76a536eb:e16d27fb:1a3a90c3
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
     Array Size : 3907039232 (1863.02 GiB 2000.40 GB)
   Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
  Sector Offset : 0
    Num Stripes : 30523744
     Chunk Size : 32 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean

  Disk01 Serial : WD-WMATV3628555
          State : active
             Id : 00010000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

/dev/sdb:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 43d3cf98
         Family : 43d3cf98
     Generation : 00000003
     Attributes : All supported
           UUID : 6792b89b:e5162c11:b694727d:de71f59c
       Checksum : 7a5f4777 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : WD-WMATV3628555
          State : active
             Id : 00010000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

[Volume0]:
           UUID : 4af84c7c:76a536eb:e16d27fb:1a3a90c3
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
     Array Size : 3907039232 (1863.02 GiB 2000.40 GB)
   Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
  Sector Offset : 0
    Num Stripes : 30523744
     Chunk Size : 32 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean

  Disk00 Serial : WD-WMATV3627263
          State : active
             Id : 00000000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

Я затем работал mdadm --assemble --scan и теперь у меня есть массив RAID0. Это содержит:

  1. Эти три части, упомянутые под sda выше. К сожалению, ни один раздел на 699 ГБ здесь (то, которое я надеюсь все еще, содержит одну из копий моего исходного RAID1 массива) или раздел на 109 ГБ не может быть смонтирован.
  2. 1 ТБ освобожденного пространства, которое я предполагаю, соответствует sdb?

Может любой:

  1. Помогите мне выяснить то, что пошло не так, как надо?
    • Например, почему участники RAID1 превращались в участников RAID0?
    • Где имеют разделы на sdb уведенный?
    • Почему тип раздела в разделах на sda потерян?
  2. Скажите мне, как зафиксировать его?
    • Я могу жить без меньших разделов, но я действительно, действительно хотел бы получить свой домашний dir от раздела RAID1 назад.
1
задан 2 July 2013 в 12:42

1 ответ

1116 Как раз когда я собирался сдаться, я, похоже, нашел решение.

  1. Я запустил parted /dev/sda print, чтобы определить (казалось бы, пустую) область диска, где находился раздел.
  2. Затем я запустил parted /dev/sda rescue 0 699GB, который нашел раздел со смещением 1083kB.
  3. parted спросили, хочу ли я добавить его в таблицу разделов, на что я ответил да .
  4. parted теперь мог видеть раздел.
  5. Затем я запустил parted /dev/sda unit B print, чтобы получить смещение раздела в байтах, которое я после некоторых проб и ошибок обнаружил, что mount необходимо.
  6. Теперь я могу смонтировать раздел: mount -o loop,ro,offset=1082880 -t ext4 /dev/sda /mnt.

Теперь я, вероятно, скопирую данные с восстановленного члена RAID1, а также данные с небольших разделов на другой жесткий диск; протрите /dev/sda и /dev/sdb полностью; создавать на них новые разделы; собрать новые разделы в массив RAID1; и, наконец, скопируйте данные из резервной копии.

Относительно того, что пошло не так: системные администраторы, которые помогли мне в этом разобраться, сказали, что их лучшим выбором было то, что процедура обновления Ubuntu каким-то образом неправильно обнаружила метаданные из старой (несуществующей) конфигурации HW RAID вместо фактического SW Настройка RAID. Затем он мог подключить массив как RAID0, охватывая все диски / dev / sda и / dev / sdb, и таким образом перезаписать метаданные о реальном массиве SW RAID1, который охватывал два раздела ~ 700 ГБ.

0
ответ дан 2 July 2013 в 12:42

Другие вопросы по тегам:

Похожие вопросы: