Кэш ZFS на том же диске (другой раздел) как/?

Начиная с обновления до 16,04 я переместил свой / домой в zfs-пул для ознакомления с zfs.

Уже проявив его силу это определило низкое качество моих длительных дисков:

# zpool status -v
  pool: homepool
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
    continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Oct 16 11:09:17 2016
    402G scanned out of 1,63T at 76,8M/s, 4h41m to go
    401G resilvered, 24,10% done
config:

    NAME        STATE     READ WRITE CKSUM
    homepool    DEGRADED     0     0     0
      mirror-0  DEGRADED     0     0     0
        sdb     UNAVAIL      0     0     0
        sdc     ONLINE       0     0     0
        sdd     ONLINE       0     0    1K  (resilvering)
      mirror-1  ONLINE       0     0     0
        sde     ONLINE       0     0     0
        sdf     ONLINE       0     0     0
    cache
      sda4      REMOVED      0     0     0

errors: No known data errors

sdb двигался с пыхтением вперед в течение многих лет, но с zfs вычислением контрольной суммы стало очевидно, что это иногда производит неправильные данные. Такое поведение, конечно, не принято zfs, который отметил диск как дефектный - который привел ко мне добавление sdd таким образом инициализация перепосеребрения.

Теперь - zfs удалил sdb от пула дважды. Оба раза sda4 был удален также. sda1 содержит мой /. В обоих случаях это было найдено в a ro- заявите последующий за удалением sdb.

Это все соединено или является этим, более вероятно у меня есть больше чем один неисправный диск?

Мое обоснование - это sdb повреждается, но так как это кэшируется, некоторые ошибки могли бы рассматриваться как прибывающий из кэша и так как кэш находится на том же физическом диске как /- раздел корень уничтожается когда zfs попытки восстановиться с ошибок, замеченных на sdb и sda4 из-за обоих физических дисков, отмечаемых как производители мусора.

Это звучит вероятным?

Попытка повторно смонтироваться / не работает:

root@computer:~# df /
-su: /bin/df: Input/output error
root@computer:~# df /de-su: cannot create temp file for here-document: Read-only file system
-su: cannot create temp file for here-document: Read-only file system
^C
root@computer:~# mount | grep sda
/dev/sda1 on / type ext4 (ro,relatime,errors=remount-ro,data=ordered)    
root@computer:~# mount -o remount,rw /dev/sda1 /
mount: cannot remount /dev/sda1 read-write, is write-protected

Править:

Так как я добавил дополнительный диск (таким образом удаляющий sata дисковод для компакт-дисков), я не видел проблемы.

# zpool status -v
  pool: homepool
 state: ONLINE
  scan: scrub repaired 0 in 6h37m with 0 errors on Wed Oct 19 15:23:30 2016
config:

    NAME        STATE     READ WRITE CKSUM
    homepool    ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sdb     ONLINE       0     0     0
        sdc     ONLINE       0     0     0
        sdd     ONLINE       0     0     0
      mirror-1  ONLINE       0     0     0 
        sde     ONLINE       0     0     0 
        sdf     ONLINE       0     0     0
    cache
      sda4      ONLINE       0     0     0 

errors: No known data errors

Все по-видимому было хорошо в течение почти двух недель, но поврежденный диск все еще там, я предположил бы, что он должен был продолжить извергать данные мусора, но это не кажется.

3
задан 1 November 2016 в 00:49

0 ответов

Другие вопросы по тегам:

Похожие вопросы: