md_update_sb, заставляющий RAID 1 начальной загрузки напряженно трудиться

Я установил Ubuntu 18.04 LTS на 4 жестких дисках в конфигурации RAID 1. Что-то заставляет жесткие диски напряженно трудиться, и они никогда не вращаются вниз. Вещи я сделал: - отображаемый часто получал доступ к каталогам (/var/log,/tmp и т.д.), поскольку tmpfs в память - заблокировал / мусорное ведро,/sbin и несколько библиотек через vmtouch в память

После тех изменений iotop показывает только kworker доступ к массиву.

btrace показывает это:

9,0    0        0   350.464025971     0  m   N md md_update_sb
9,0    0       98   350.849029580  2206  Q  WM 71305144 + 8 [kworker/u128:0]
9,0    0       99   350.849034110  2206  Q  WM 71305216 + 8 [kworker/u128:0]
9,0    0      100   350.849038452  2206  Q  WM 71371648 + 8 [kworker/u128:0]
9,0    0      101   350.849045694  2206  Q   W 0 + 8 [kworker/u128:0]
9,0    0      102   350.849048534  2206  Q  WM 40 + 8 [kworker/u128:0]
9,0    1      137   350.976982774     0  C   W 0 + 8 [0]
9,0    1      138   350.994303913     0  C  WM 40 + 8 [0]
9,0    1      139   350.997638530     0  C  WM 71303296 + 8 [0]
9,0    1      140   351.011237159   353  C  WM 71305144 + 8 [0]
9,0    1      141   351.011403025     0  C  WM 71305216 + 8 [0]
9,0    1      142   351.276814094   353  C  WM 71371648 + 8 [0]
9,0    0        0   351.599976239     0  m   N md md_update_sb

Если я понимаю трассировку правильно, что-то обновляет суперблок массива? Что еще я могу сделать для трассировки вниз, что не дает спать дискам?

Обновление 1: RAID 6 также настраивается на тех же дисках, но он не смонтирован и там, кажется, не доступ к нему.

cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md127 : active raid6 sde3[5] sdd3[4] sdc3[1] sdb3[0]
      10737154048 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/40 pages [0KB], 65536KB chunk

md0 : active raid1 sde2[5] sdd2[4] sdc2[2] sdb2[6]
      52395008 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>

Обновление 2: inotifywait -r -m / трассировки весь доступ к файловой системе. Прогрессивно отфильтровывание всего, что уже смонтировано в память...

inotifywait -r -m / @/dev @/sys @/proc @/run @/var/tmp @/tmp @/var/log @/var/spool

... показал snapd запись файлов. Поскольку я не знаю ни о чем, чему нужен snapd в моей установке, я произвел чистку его.

0
задан 22 November 2019 в 00:31

1 ответ

Во всяком случае, после inotifywait регистрируется, я нашел один за другим процессы (были многие!) пишущий в файловую систему. Я повторно отобразил каждый каталог на tmpfs со сценарием начальной загрузки, копируя файлы в tmpfs и повторно монтируя его вместо местоположения файловой системы и затем копирования файлов назад на завершении работы. Это имеет протесты, но это сделает на данный момент.

0
ответ дан 21 December 2019 в 23:52

Другие вопросы по тегам:

Похожие вопросы: