shr совершают рейд на диски с разрушенной nas ОС (синология)

у меня есть два диска, которые я использовал в качестве shr (гибридный набег синологии) в синологии nas., к сожалению, после обновления ОС, разрушенная без способности использовать опцию сброса. по-видимому, это известно как белый экран смерти.

так или иначе я ищу способ получить доступ к данным для передачи его диску с резервной копией. к сожалению, никакое резервное копирование теперь.

синология отправила следующую ссылку, дающую решение смонтировать диски на ПК под человечностью.

выполненный все шаги, кроме "постфиксной конфигурации - никакая конфигурация" опция, поскольку это не появилось во время установки.

у меня есть следующая информация о диске при включении на пути usb (не имейте рабочий стол в наличии, таким образом, usb является моей единственной опцией на данный момент),

оба диска видимы под gparted (sdb и sdc), оба диска симметричны, таким образом, информация ниже для количеств sdb также для разделения sdc:

/dev/sdb1 (2,37 гибибайта)
/dev/sdb2 (2,00 гибибайта)
127,12 МБ освобождаются
Расширенный раздел:/dev/sdb3 (927,01 гибибайт)
- Освобожденных 7,80 МБ-/dev/sdb5 926,91 гибибайт)
- 94,12 МБ освободили 6,91 освобожденных

sdb 1,2,3, и 5 являются всем набегом Linux, поскольку расширенным разделом конфигурации файла является LBA нет никакого sdb 4 sdb5, имеет точку монтирования/dev/md2

когда я выполнил mdadm-Asf && vgchange - да, диски ответили физически оба одновременно (как ожидалось, когда оба диска должны смонтироваться),

после контроля gparted показал дополнительный диск/dev/md2 только с одним партоном на 926,91 гибибайт файловой системы lvm pv2. точно как размер диска под в синологии nas., таким образом, кажется, что все это должно было работать, но никакой дополнительный диск под наутилусом или в mnt папке. также немного ключа с/dev/md2 под gparted и никакой опцией смонтироваться (вероятно, поскольку это уже смонтировано),

существует ли иначе к избытку это (смонтированный?) md2 раздел? является shr (гибридный набег синологии) файловой системой проблема здесь? который, вероятно, отличается затем общий набег. они ничего не упоминают об этом, хотя, не насколько я знаю.

Надежда на подсказки или справку о том, как получить доступ к данным.

добрые поздравления, Matthieu

sudo lvs:

  LV     VG        Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root   ubuntu-vg -wi-ao---- 114,84g                                                    
  swap_1 ubuntu-vg -wi-ao----   3,90g                                                    
  lv     vg1000    -wi-a----- 926,90g                                                    

sudo vgs:

LV     VG        Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root   ubuntu-vg -wi-ao---- 114,84g                                                    
  swap_1 ubuntu-vg -wi-ao----   3,90g                                                    
  lv     vg1000    -wi-a----- 926,90g   

sudo pvs:

  LV     VG        Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root   ubuntu-vg -wi-ao---- 114,84g                                                    
  swap_1 ubuntu-vg -wi-ao----   3,90g                                                    
  lv     vg1000    -wi-a----- 926,90g   

sudo pvdisplay

  --- Physical volume ---  
  PV Name               /dev/md2  
  VG Name               vg1000  
  PV Size               926,91 GiB / not usable 3,81 MiB  
  Allocatable           yes (but full)  
  PE Size               4,00 MiB  
  Total PE              237287  
  Free PE               0  
  Allocated PE          237287  
  PV UUID               BgEiR6-dOhF-POyb-0nVE-GMc1-WW8c-QxWXpc  

  --- Physical volume ---  
  PV Name               /dev/mapper/sda5_crypt  
  VG Name               ubuntu-vg  
  PV Size               118,76 GiB / not usable 0     
  Allocatable           yes   
  PE Size               4,00 MiB  
  Total PE              30403  
  Free PE               5  
  Allocated PE          30398  
  PV UUID               hQ16w8-eBos-edQ5-sF1s-CV0q-UB2x-nIIHKf  

sudo lvdisplay

  --- Logical volume ---  
  LV Path                /dev/vg1000/lv  
  LV Name                lv  
  VG Name                vg1000  
  LV UUID                G40w9j-sqL1-6e7e-1i9g-PcPA-7mo6-9W69Mr  
  LV Write Access        read/write  
  LV Creation host, time ,   
  LV Status              available  
  # open                 0  
  LV Size                926,90 GiB  
  Current LE             237287  
  Segments               1  
  Allocation             inherit  
  Read ahead sectors     auto  
  - currently set to     256  
  Block device           253:4  

  --- Logical volume ---  
  LV Path                /dev/ubuntu-vg/root  
  LV Name                root  
  VG Name                ubuntu-vg  
  LV UUID                iODJJk-iDeM-5eiy-mGGK-Z2Wj-aJsJ-b9nPNL  
  LV Write Access        read/write  
  LV Creation host, time ubuntu, 2017-02-03 22:35:31 +0100  
  LV Status              available  
  # open                 1  
  LV Size                114,84 GiB  
  Current LE             29400  
  Segments               1  
  Allocation             inherit  
  Read ahead sectors     auto  
  - currently set to     256  
  Block device           253:1  

  --- Logical volume ---  
  LV Path                /dev/ubuntu-vg/swap_1  
  LV Name                swap_1  
  VG Name                ubuntu-vg  
  LV UUID                xHrGFf-GHaB-W4jc-VYJm-e3WT-gkhF-lXigfM  
  LV Write Access        read/write  
  LV Creation host, time ubuntu, 2017-02-03 22:35:31 +0100  
  LV Status              available  
  # open                 1  
  LV Size                3,90 GiB  
  Current LE             998  
  Segments               1  
  Allocation             inherit  
  Read ahead sectors     auto  
  - currently set to     256  
  Block device           253:2  

sudo vgdisplay:

  --- Volume group ---  
  VG Name               vg1000  
  System ID               
  Format                lvm2  
  Metadata Areas        1  
  Metadata Sequence No  2  
  VG Access             read/write  
  VG Status             resizable  
  MAX LV                0  
  Cur LV                1  
  Open LV               0  
  Max PV                0  
  Cur PV                1  
  Act PV                1  
  VG Size               926,90 GiB  
  PE Size               4,00 MiB  
  Total PE              237287  
  Alloc PE / Size       237287 / 926,90 GiB  
  Free  PE / Size       0 / 0     
  VG UUID               owLxtE-2AEt-yTQX-VyGf-gdkz-u5E8-afGETg  

  --- Volume group ---  
  VG Name               ubuntu-vg  
  System ID               
  Format                lvm2  
  Metadata Areas        1  
  Metadata Sequence No  3  
  VG Access             read/write  
  VG Status             resizable  
  MAX LV                0  
  Cur LV                2  
  Open LV               2  
  Max PV                0  
  Cur PV                1  
  Act PV                1  
  VG Size               118,76 GiB  
  PE Size               4,00 MiB  
  Total PE              30403  
  Alloc PE / Size       30398 / 118,74 GiB  
  Free  PE / Size       5 / 20,00 MiB  
  VG UUID               xUCkb6-bk95-bacK-HlIc-IAIv-6rC5-43ymwu  

надежда это немного информативно

2
задан 11 February 2017 в 16:57

2 ответа

предложение steeldrivers работало отлично!

sudo монтируют/dev/mapper/vg1000-lv, что/mnt

, все еще размонтировавшийся никогда, не фиксировался, но скопировал все это по сети, и диски были отформатированы так, это решило это.

0
ответ дан 2 December 2019 в 09:26

Я не эксперт по LVM или mdadm, но вот что я сделал, чтобы решить связанную проблему в Ubuntu 18.

Единственный жесткий диск SHR подключен через переходник USB-SATA. Система пытается автоматически установить том RAID, но что-то идет не так:

Если я пытаюсь собрать:

mdadm -Asf && vgchange -ay

mdadm: Found some drive for an array that is already active: /dev/md/DiskStation:2
mdadm: giving up.
mdadm: No arrays found in config file or automatically

или смонтировать:

mount /dev/mapper/vg1000-lv /mnt/
mount: /mnt: can't read superblock on /dev/mapper/vg1000-lv.

Я проверил, и система уже сопоставила /dev/mdXXX на диск SHR. Итак:

dmsetup remove /dev/mapper/vg1000-lv

mdadm --stop /dev/mdXXX

И после можно повторить попытку сборки с помощью mdadm:

mdadm -Asf && vgchange -ay

Ссылка на монтирование находится в папке /media/xxxxx/volumeToMount

0
ответ дан 16 September 2020 в 12:19

Другие вопросы по тегам:

Похожие вопросы: