ошибка gparted: ошибка libparted — достигла конца файла во время чтения/dev/sdX

---введение---

Привет, я - итальянский собственный докладчик и так являюсь моей человечностью, жаль о моем плохом английском языке (я потратил много денег, пытающихся улучшить его, но :D, как Вы видите, это был плохой investiment! :D) описание ошибки могло немного отличаться от того, которое я перечислил на объекте (непереведенный, "Errore libparted - raggiunta la fine del file durante la lettura di/dev/sdX"). Я, также, новый пользователь Linux, но, любя его, я решил преобразовать в человечность свой домашний сервер (nas, plex, доля, загрузите, и таким образом).

---проблема---

У меня есть 3 HDs (WD КРАСНЫЕ 3.0 ТБ). Они были разделены GPT и отформатированы как ext4. Затем я решил, что, (линейный) JBOD будет намного лучше для моих потребностей, таким образом, я использовал MDADM для преобразования их. Я сделал некоторые ошибки, и я потерял все данные. Я пытался восстановить их, но после 2 дней я решил использовать резервные копии для возобновления всех. Я не нашел проблемы. Теперь, новый раздел Jbod 9 ТБ хорошо работает (снова GPT - EXT4). Я скопировал все свои данные на 6 ТБ по нему, и я могу считать их назад, но, если я использую GPARTED, я получил то сообщение об ошибке.

Это показывают три раза, однажды для каждого диска так, я совершенно уверен, что это не отнесено в поврежденные секторы или около этого. Это - логическая проблема, но, должное мое отсутствие знаний, я havn't, смогший для решения его, все же. При перемещении в Интернете я ничего не нашел. теоретически я мог просто проигнорировать ту ошибку, но, как можно предположить, я был бы взволнован потерять свой раздел как раз в то самое время, когда мне нужен он больше всего.

Заранее спасибо :)

---конфигурация---

Конфигурация nas следующая: ЦП i3-2100t - Диски МБ zotac Z68itx RAM 8 ГБ: Velociraptor 300 ГБ с СЕРВЕРОМ UBUNTU 16.04 XFCE (все разделы Linux здесь) 3 WD, КРАСНЫЕ в линейном (JBOD), совместно использованный с самбой (md127 __ sdd - sde - sdf) 2 (WD и Seagate) 1,5 ТБ в Набеге 1 ранее настроенный с MDADM (md0 __ sdb - sdc) и, хорошо работает.

1
задан 6 June 2017 в 15:38

1 ответ

Если Вы создаете программное обеспечение RAID с mdadm использование "полного" (/dev/sdX) устройства:

$ sudo mdadm --create /dev/md0 --level=5 --raid-devices=4 /dev/sdb /dev/sdc /dev/sdd /dev/sde 
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
$ cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sde[4] sdd[2] sdc[1] sdb[0]
      31431168 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
      [===================>.]  recovery = 96.0% (10064540/10477056) finish=0.0min speed=205145K/sec

Все устройства в RAID не будут иметь таблицы разделов. Это приведет к gparted ошибке, потому что libparted не делает обнаружил заголовок программного обеспечения RAID. “Достигнутый конец файла” означает, что не было никакой таблицы разделов, найденной на указанном устройстве.

Также возможно создать программное обеспечение RAID на устройствах с таблицей разделов (/dev/sdx1) и идентичными размерами разделов:

$ mdadm --create /dev/md0 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

Затем gparted сообщение об ошибке уходит. В любом случае Ваши данные являются сохранением ;-)

Обновление

Поиск используемых партонов на всем жестком диске с:

lsblk 
NAME   MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda      8:0    0   200G  0 disk  
└─sda1   8:1    0   200G  0 part  
sdb      8:16   0    10G  0 disk  
└─md0    9:0    0    30G  0 raid5 
sdc      8:32   0    10G  0 disk  
└─md0    9:0    0    30G  0 raid5 
sdd      8:48   0    10G  0 disk  
└─md0    9:0    0    30G  0 raid5 
sde      8:64   0    10G  0 disk  
└─md0    9:0    0    30G  0 raid5

Все Ваши диски должны присутствовать здесь.

0
ответ дан 8 December 2019 в 05:08

Другие вопросы по тегам:

Похожие вопросы: