Начиная с обновления до 16,04 я переместил свой / домой в zfs-пул для ознакомления с zfs.
Уже проявив его силу это определило низкое качество моих длительных дисков:
# zpool status -v
pool: homepool
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sun Oct 16 11:09:17 2016
402G scanned out of 1,63T at 76,8M/s, 4h41m to go
401G resilvered, 24,10% done
config:
NAME STATE READ WRITE CKSUM
homepool DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
sdb UNAVAIL 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 1K (resilvering)
mirror-1 ONLINE 0 0 0
sde ONLINE 0 0 0
sdf ONLINE 0 0 0
cache
sda4 REMOVED 0 0 0
errors: No known data errors
sdb
двигался с пыхтением вперед в течение многих лет, но с zfs вычислением контрольной суммы стало очевидно, что это иногда производит неправильные данные. Такое поведение, конечно, не принято zfs, который отметил диск как дефектный - который привел ко мне добавление sdd
таким образом инициализация перепосеребрения.
Теперь - zfs удалил sdb
от пула дважды. Оба раза sda4
был удален также. sda1
содержит мой /
. В обоих случаях это было найдено в a ro
- заявите последующий за удалением sdb
.
Это все соединено или является этим, более вероятно у меня есть больше чем один неисправный диск?
Мое обоснование - это sdb
повреждается, но так как это кэшируется, некоторые ошибки могли бы рассматриваться как прибывающий из кэша и так как кэш находится на том же физическом диске как /
- раздел корень уничтожается когда zfs
попытки восстановиться с ошибок, замеченных на sdb
и sda4
из-за обоих физических дисков, отмечаемых как производители мусора.
Это звучит вероятным?
Попытка повторно смонтироваться /
не работает:
root@computer:~# df /
-su: /bin/df: Input/output error
root@computer:~# df /de-su: cannot create temp file for here-document: Read-only file system
-su: cannot create temp file for here-document: Read-only file system
^C
root@computer:~# mount | grep sda
/dev/sda1 on / type ext4 (ro,relatime,errors=remount-ro,data=ordered)
root@computer:~# mount -o remount,rw /dev/sda1 /
mount: cannot remount /dev/sda1 read-write, is write-protected
Править:
Так как я добавил дополнительный диск (таким образом удаляющий sata дисковод для компакт-дисков), я не видел проблемы.
# zpool status -v
pool: homepool
state: ONLINE
scan: scrub repaired 0 in 6h37m with 0 errors on Wed Oct 19 15:23:30 2016
config:
NAME STATE READ WRITE CKSUM
homepool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdb ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sde ONLINE 0 0 0
sdf ONLINE 0 0 0
cache
sda4 ONLINE 0 0 0
errors: No known data errors
Все по-видимому было хорошо в течение почти двух недель, но поврежденный диск все еще там, я предположил бы, что он должен был продолжить извергать данные мусора, но это не кажется.