Я недавно перезагрузил сервер, и после загрузки один из моих zfspools был недоступен.
пул: состояние stor4: состояние UNAVAIL: не удалось использовать одно или несколько устройств, поскольку метка отсутствует или недействительна. Недостаточно реплик для пула, чтобы продолжить работу. действие: уничтожить и заново создать пул из резервного источника. см .: http://zfsonlinux.org/msg/ZFS-8000-5E сканирование: не запрашивается конфигурация:
NAME STATE READ WRITE CKSUM stor4 UNAVAIL 0 0 0 insufficient replicas raidz2-0 UNAVAIL 0 0 0 insufficient replicas sdaa ONLINE 0 0 0 sdac ONLINE 0 0 0 sdad ONLINE 0 0 0 sdag ONLINE 0 0 0 sdai ONLINE 0 0 0 sdak ONLINE 0 0 0 sdam ONLINE 0 0 0 sdao UNAVAIL 0 0 0 corrupted data sdap UNAVAIL 0 0 0 sdaq UNAVAIL 0 0 0 sdar UNAVAIL 0 0 0 sdas UNAVAIL 0 0 0 sdat UNAVAIL 0 0 0 sdau UNAVAIL 0 0 0 sdav UNAVAIL 0 0 0
Мне показалось странным, что внезапно все диски будут выходить из строя. После дальнейшего изучения я обнаружил, что / dev / sdao не является частью массива, а является частью lvm.
UUID = "dff51eba-e2ce-4b11-8fe5-7cc8d4d28d5b" TYPE = "ext2" / dev / sdao5: UUID = "V9Y5aB-DbB2-Djly-ndTD-nwbb-ADi2-iBOHte" = "LVM2_member"
Похоже, что пулы пытаются захватить / dev / sdao, который не является частью пула, а затем умирает.
Любая помощь будет оценена.
Я закончил тем, что решил этот вопрос. По-видимому, lvm и zfs не играют приятно вместе.
импорт шпульки-d/dev/disk/by-id пул stor4
: состояние stor4: сканирование ОНЛАЙН: вычистите восстановленный 0 в 0h2m с 0 ошибками в среду 6 апреля конфигурация 13:15:36 2016 года:
NAME STATE READ WRITE CKSUM
stor4 ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134LLA13H ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC130YUZ78J ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC130ADRPT2 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133YHCH74 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134HF0CN1 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133CL339U ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133YHC7A8 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134PDTNA9 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134HF0TF5 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134HF01HR ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC132RDTE7E ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134PDT71R ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC136HXYZS3 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC136PT6DE9 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133FE5JND ONLINE 0 0 0
spares
ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC131FYE89J AVAIL
массив онлайн, и данные неповреждены. Кажется, как будто lvm, который управляет корнем/, ступал на zfs и присваивал одни из букв дисков zfs к его физическому тому. Я должен отметить, что экспорт шпульки был бы ошибка, потому что состояние было непользой. Используя идентификатор должен помешать этому типу вещи произойти в будущем.
я надеюсь, что это помогает любому, кто сталкивается с той же проблемой.