Логическим томам LVM не удается активироваться на начальной загрузке после 11.04 к 11,10 живым обновлениям

Я обновил свой сервер от 11,04 до 11,10 использований (на 64 бита) sudo do-release-upgrade

Машина теперь останавливается во время начальной загрузки, потому что она не может найти определенные логические тома в/mnt. Когда это происходит, я поразил "m" к выпадающему к корневой оболочке, и я вижу, следующее (простите мне за погрешности, я воссоздаю это):

$ lvs
  LV       VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  audio    vg   -wi--- 372.53g                                      
  home     vg   -wi-ao 186.26g                                      
  swap     vg   -wi-ao   3.72g                                      

Соответствующие блочные устройства в/dev отсутствуют для "аудио".

Если я работаю:

$ vgchange -a y
$ lvs
  LV       VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  audio    vg   -wi-ao 372.53g                                      
  home     vg   -wi-ao 186.26g                                      
  swap     vg   -wi-ao   3.72g                                      

Затем все LVs активируются, и система продолжает загружаться отлично после выхода от корневой оболочки обслуживания.

Что продолжается, и как я установил бы LVs, чтобы всегда быть активным на, загружаются?


Обновление для ответа на поднятые вопросы:

Существует одна группа объема:

# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  vg     1   6   0 wz--n- 1.68t    0 
# pvs
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2   vg   lvm2 a-   1.68t    0 

По массиву MD RAID1, состоящему из подобранной пары жестких дисков с интерфейсом SATA:

 # cat /proc/mdstat 
 Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
 md2 : active raid1 sda3[0] sdb3[1]
       1806932928 blocks [2/2] [UU]

 md1 : active raid1 sda2[0] sdb2[1]
       146484160 blocks [2/2] [UU]

 md3 : active raid1 sda4[0] sdb4[1]
       95168 blocks [2/2] [UU]

 unused devices: <none>

Так:

 # mount
 /dev/md1 on / type ext4 (rw,errors=remount-ro)
 proc on /proc type proc (rw,noexec,nosuid,nodev)
 sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
 fusectl on /sys/fs/fuse/connections type fusectl (rw)
 none on /sys/kernel/debug type debugfs (rw)
 none on /sys/kernel/security type securityfs (rw)
 udev on /dev type devtmpfs (rw,mode=0755)
 devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
 tmpfs on /run type tmpfs (rw,noexec,nosuid,size=10%,mode=0755)
 none on /run/lock type tmpfs (rw,noexec,nosuid,nodev,size=5242880)
 none on /run/shm type tmpfs (rw,nosuid,nodev)
 /dev/md3 on /boot type ext3 (rw)
 /dev/mapper/vg-home on /home type reiserfs (rw)
 /dev/mapper/vg-audio on /mnt/audio type reiserfs (rw)
 rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 nfsd on /proc/fs/nfsd type nfsd (rw)

Обновление с полным lvdisplay - как подозревается разделы, что работа является первой в списке. Не видьте ничего нечетного самостоятельно. Я включал полный список здесь - это - все мои разделы LVM.

Это от беговой дорожки, если произведено от нарушенного состояния полезно, этому будет требоваться некоторое время для получения.

# lvdisplay 
  --- Logical volume ---
  LV Name                /dev/vg/swap
  VG Name                vg
  LV UUID                INuOTR-gwB8-Z0RW-lGHM-qtRF-Xc7D-Bv43ah
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                3.72 GiB
  Current LE             953
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Name                /dev/vg/home
  VG Name                vg
  LV UUID                7L34YS-Neh0-V5OL-bFfd-TmO4-8CkV-GwXuRL
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                186.26 GiB
  Current LE             47683
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

  --- Logical volume ---
  LV Name                /dev/vg/audio
  VG Name                vg
  LV UUID                AX1ZG5-vwyk-mYVl-DBHt-Rgp2-DSwg-oDZlbS
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:2

  --- Logical volume ---
  LV Name                /dev/vg/vmware
  VG Name                vg
  LV UUID                bj0m1h-jndV-GWU8-aePm-gaoo-Q0pE-cWhWj2
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:3

  --- Logical volume ---
  LV Name                /dev/vg/backup
  VG Name                vg
  LV UUID                PHDnjD-8uT8-yHB2-8SBW-d7E1-1Zws-Qx0Tp8
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                93.13 GiB
  Current LE             23841
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:4

  --- Logical volume ---
  LV Name                /dev/vg/download
  VG Name                vg
  LV UUID                64Your-pvNG-7EvG-exns-eK9A-vMDD-eozIBM
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                695.05 GiB
  Current LE             177934
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:5

Обновление 28.01.2012: перезагрузка дала возможность посмотреть на машину в ее нарушенном состоянии.

Я не знаю при необходимости, но машина была закрыта чисто, но файловые системы не были чистыми при запуске снова.

# lvs
  LV       VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  audio    vg   -wi--- 372.53g                                      
  backup   vg   -wi---  93.13g                                      
  download vg   -wi--- 695.05g                                      
  home     vg   -wi-ao 186.26g                                      
  swap     vg   -wi-ao   3.72g                                      
  vmware   vg   -wi--- 372.53g

Хотя, возможно, интереса (отметьте загрузку):

# lvs --segments
  LV       VG   Attr   #Str Type   SSize  
  audio    vg   -wi---    1 linear 372.53g
  backup   vg   -wi---    1 linear  93.13g
  download vg   -wi---    1 linear 508.79g
  download vg   -wi---    1 linear 186.26g
  home     vg   -wi-ao    1 linear 186.26g
  swap     vg   -wi-ao    1 linear   3.72g
  vmware   vg   -wi---    1 linear 372.53g

Еще:

# lvdisplay 
  --- Logical volume ---
  LV Name                /dev/vg/swap
  VG Name                vg
  LV UUID                INuOTR-gwB8-Z0RW-lGHM-qtRF-Xc7D-Bv43ah
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                3.72 GiB
  Current LE             953
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Name                /dev/vg/home
  VG Name                vg
  LV UUID                7L34YS-Neh0-V5OL-bFfd-TmO4-8CkV-GwXuRL
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                186.26 GiB
  Current LE             47683
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

  --- Logical volume ---
  LV Name                /dev/vg/audio
  VG Name                vg
  LV UUID                AX1ZG5-vwyk-mYVl-DBHt-Rgp2-DSwg-oDZlbS
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Name                /dev/vg/vmware
  VG Name                vg
  LV UUID                bj0m1h-jndV-GWU8-aePm-gaoo-Q0pE-cWhWj2
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Name                /dev/vg/backup
  VG Name                vg
  LV UUID                PHDnjD-8uT8-yHB2-8SBW-d7E1-1Zws-Qx0Tp8
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                93.13 GiB
  Current LE             23841
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Name                /dev/vg/download
  VG Name                vg
  LV UUID                64Your-pvNG-7EvG-exns-eK9A-vMDD-eozIBM
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                695.05 GiB
  Current LE             177934
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto


# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  vg     1   6   0 wz--n- 1.68t    0 

# pvs
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2   vg   lvm2 a-   1.68t    0 

От dmesg:

[    0.908322] ata3.00: ATA-8: ST32000542AS, CC34, max UDMA/133
[    0.908325] ata3.00: 3907029168 sectors, multi 16: LBA48 NCQ (depth 0/32)
[    0.908536] ata3.01: ATA-8: ST32000542AS, CC34, max UDMA/133
[    0.908538] ata3.01: 3907029168 sectors, multi 16: LBA48 NCQ (depth 0/32)
[    0.924307] ata3.00: configured for UDMA/133
[    0.940315] ata3.01: configured for UDMA/133
[    0.940408] scsi 2:0:0:0: Direct-Access     ATA      ST32000542AS     CC34 PQ: 0 ANSI: 5
[    0.940503] sd 2:0:0:0: [sda] 3907029168 512-byte logical blocks: (2.00 TB/1.81 TiB)
[    0.940541] sd 2:0:0:0: Attached scsi generic sg0 type 0
[    0.940544] sd 2:0:0:0: [sda] Write Protect is off
[    0.940546] sd 2:0:0:0: [sda] Mode Sense: 00 3a 00 00
[    0.940564] sd 2:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[    0.940611] scsi 2:0:1:0: Direct-Access     ATA      ST32000542AS     CC34 PQ: 0 ANSI: 5
[    0.940699] sd 2:0:1:0: Attached scsi generic sg1 type 0
[    0.940728] sd 2:0:1:0: [sdb] 3907029168 512-byte logical blocks: (2.00 TB/1.81 TiB)
[    0.945319] sd 2:0:1:0: [sdb] Write Protect is off
[    0.945322] sd 2:0:1:0: [sdb] Mode Sense: 00 3a 00 00
[    0.945660] sd 2:0:1:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[    0.993794]  sda: sda1 sda2 sda3 sda4
[    1.023974] sd 2:0:0:0: [sda] Attached SCSI disk
[    1.024277]  sdb: sdb1 sdb2 sdb3 sdb4
[    1.024529] sd 2:0:1:0: [sdb] Attached SCSI disk


[    1.537688] md: bind<sdb3>
[    1.538922] bio: create slab <bio-1> at 1
[    1.538983] md/raid1:md2: active with 2 out of 2 mirrors
[    1.539005] md2: detected capacity change from 0 to 1850299318272
[    1.540678]  md2: unknown partition table
[    1.540851] md: bind<sdb4>
[    1.542231] md/raid1:md3: active with 2 out of 2 mirrors
[    1.542245] md3: detected capacity change from 0 to 97452032
[    1.543867] md: bind<sdb2>
[    1.544680]  md3: unknown partition table
[    1.545627] md/raid1:md1: active with 2 out of 2 mirrors
[    1.545642] md1: detected capacity change from 0 to 149999779840
[    1.556008]    generic_sse:  9824.000 MB/sec
[    1.556010] xor: using function: generic_sse (9824.000 MB/sec)
[    1.556721] md: raid6 personality registered for level 6
[    1.556723] md: raid5 personality registered for level 5
[    1.556724] md: raid4 personality registered for level 4
[    1.560491] md: raid10 personality registered for level 10
[    1.571416]  md1: unknown partition table


[    1.935835] EXT4-fs (md1): INFO: recovery required on readonly filesystem
[    1.935838] EXT4-fs (md1): write access will be enabled during recovery
[    2.901833] EXT4-fs (md1): orphan cleanup on readonly fs
[    2.901840] EXT4-fs (md1): ext4_orphan_cleanup: deleting unreferenced inode 4981215
[    2.901904] EXT4-fs (md1): ext4_orphan_cleanup: deleting unreferenced inode 8127848
[    2.901944] EXT4-fs (md1): 2 orphan inodes deleted
[    2.901946] EXT4-fs (md1): recovery complete
[    3.343830] EXT4-fs (md1): mounted filesystem with ordered data mode. Opts: (null)
[   64.851211] Adding 3903484k swap on /dev/mapper/vg-swap.  Priority:-1 extents:1 across:3903484k 

[   67.600045] EXT4-fs (md1): re-mounted. Opts: errors=remount-ro
[   68.459775] EXT3-fs: barriers not enabled
[   68.460520] kjournald starting.  Commit interval 5 seconds
[   68.461183] EXT3-fs (md3): using internal journal
[   68.461187] EXT3-fs (md3): mounted filesystem with ordered data mode
[  130.280048] REISERFS (device dm-1): found reiserfs format "3.6" with standard journal
[  130.280060] REISERFS (device dm-1): using ordered data mode
[  130.284596] REISERFS (device dm-1): journal params: device dm-1, size 8192, journal first block 18, max trans len 1024, max batch 900, max commit age 30, max trans age 30
[  130.284918] REISERFS (device dm-1): checking transaction log (dm-1)
[  130.450867] REISERFS (device dm-1): Using r5 hash to sort names
2
задан 28 January 2012 в 20:07

2 ответа

Ничего страшного в журналах нет. Тем не менее, я заметил, что вы создали 3 MD, все из которых используют одно и то же хранилище резервных копий, по существу с 3 различными файловыми системами (ext3, ext4, reiserfs (может быть, и raw VMware?)). Интересно, все ли конкурирующие стратегии обратной записи ввода / вывода в сочетании с несколькими блокировками / очередями в одном хранилище вытесняют ваши попытки использовать смежные MD при определенных условиях?

Это отразится на файловой системе как сбой журнала или обратной записи и манифеста в LVM как сбой при сборке или активации сопоставления.

В идеале, ваша установка должна выглядеть следующим образом:

sda [sda1 {SPAN весь диск - 1-2%}]

sdb [sdb1 {SPAN весь диск - 1-2%}]

md1 (RAID1) [sda1 sdb1]

vg [md1]

Вы можете загружаться напрямую из корневого lvm-файла Я делаю это сам. Причина, по которой вы не занимаетесь целым диском, заключается в том, что если вы когда-либо получаете поврежденные блоки и используете инструмент восстановления низкого уровня, установленный поставщиком, у вас иногда могут заканчиваться свободные блоки и блоки коммендера инструментов, которые используются, что изменяет чистый размер диск, и ломая вашу таблицу разделов и, конечно, MD в процессе. См. MDADM Superblock Recovery

Если у вас все еще есть проблемы с одним MD, а не с 3, то либо одна из ваших файловых систем, либо VMware капризничают, а кто-то истощает ваших братьев и сестер, или есть настоящая проблема с вашим бэк-магазином, которая делает всех остальных жертвами.

0
ответ дан 28 January 2012 в 20:07

Машина постепенно становилась все хуже и хуже по мере установки обновлений. Это было перезагружено этим утром и не загружалось снова - / home не будет активироваться должным образом вообще. А затем ошибки dbus и т. Д. И т. Д.

9 часов спустя я полностью переустановил 11.10 на те же разделы, и теперь они работают нормально. Очень странно, но, похоже, это было решением.

Спасибо, ппетраки, я согласен с вашими соображениями, исходя из производительности, посмотрю на это при замене машины.

0
ответ дан 28 January 2012 в 20:07

Другие вопросы по тегам:

Похожие вопросы: