Существует ли командная строка, эквивалентная дискам гнома?

Диски Gnome (gnome-disks - раньше известный как palimpsest) обеспечивает УМНЫЙ и некоторая информация о сравнительном тестировании. Из того, что я собираюсь, это раньше было основано на инструменте командной строки udisks но эти проекты, кажется, объединились.

Новая утилита Gnome Disks, кажется, только показывает, что среднее число следует из тестов сравнительного тестирования. Из снимков экрана предыдущие версии палимпсеста, кажется, имеют максимальные и минимальные ответы в результатах также.

Я интересуюсь всеми результатами в сравнительном тестировании - конкретно я пытаюсь найти диски, которые имеют отрицательный эффект на пользователей путем избавления от дисков с медленным вводом-выводом в худшем случае. Я также хочу отобразить эти данные со временем, таким образом, я должен смочь обработать/экспортировать их программным способом.

Я смотрел на udisksctl (в udisks2 пакете), но это, кажется, только общая информация о дисках и некоторой УМНОЙ информации.

Есть ли инструмент командной строки, который выполняет старое udisks разработать отчет по результатам сопоставления и минимумы возвратов и максимумы также?

10
задан 15 December 2016 в 18:05

1 ответ

Я наклоняюсь, говорят со старым udisks отчетом по результатам сопоставления, но возможно fio будет полезен для Вас. fio в настоящее время доступно для всех версий Ubuntu от Точный К Пикантному

, можно установить ее с sudo apt-get install fio после активация репозитория Вселенной

, Некоторое быстрое тестирование указывает, что можно выбрать раздел для тестирования просто путем обеспечения, чтобы pwd (Существующий Рабочий Каталог) был на разделе, который Вы хотите протестировать.

, Например, вот результаты, я получаю выполнение его на моем корневом разделе, который находится на Toshiba THNSNH128GBST SSD (мой/dev/sda)

$ sudo fio --name=randwrite --ioengine=libaio --iodepth=1 --rw=randwrite --bs=4k --direct=0 --size=256M --numjobs=8 --runtime=60 --group_reporting randwrite: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=1...

  randwrite: (groupid=0, jobs=8): err= 0: pid=15096: Wed Feb 15 13:58:31 2017
  write: io=2048.0MB, bw=133432KB/s, iops=33358, runt= 15717msec
    slat (usec): min=1, max=223379, avg=232.82, stdev=4112.31
    clat (usec): min=0, max=16018, avg= 0.30, stdev=22.20
     lat (usec): min=1, max=223381, avg=233.25, stdev=4112.55
    clat percentiles (usec):
     |  1.00th=[    0],  5.00th=[    0], 10.00th=[    0], 20.00th=[    0],
     | 30.00th=[    0], 40.00th=[    0], 50.00th=[    0], 60.00th=[    0],
     | 70.00th=[    0], 80.00th=[    1], 90.00th=[    1], 95.00th=[    1],
     | 99.00th=[    1], 99.50th=[    1], 99.90th=[    2], 99.95th=[    3],
     | 99.99th=[   31]
    bw (KB  /s): min= 3473, max=241560, per=12.42%, avg=16577.30, stdev=28056.68
    lat (usec) : 2=99.79%, 4=0.18%, 10=0.02%, 20=0.01%, 50=0.01%
    lat (usec) : 100=0.01%, 250=0.01%, 500=0.01%
    lat (msec) : 20=0.01%
  cpu          : usr=0.52%, sys=1.08%, ctx=3235, majf=0, minf=228
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=524288/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=2048.0MB, aggrb=133432KB/s, minb=133432KB/s, maxb=133432KB/s, mint=15717msec, maxt=15717msec

Disk stats (read/write):
  sda: ios=0/197922, merge=0/84378, ticks=0/37360, in_queue=37324, util=93.41%

Выполнение в моем корневом каталоге, который находится на Western Digital WD2003FZEX-00Z4SA0 HDD с теми же результатами команды в следующем выводе:

randwrite: (groupid=0, jobs=8): err= 0: pid=15062: Wed Feb 15 13:53:32 2017
  write: io=1299.6MB, bw=22156KB/s, iops=5538, runt= 60062msec
    slat (usec): min=1, max=200040, avg=1441.http://meta.stackexchange.com/questions/122692/moderator-tools-make-merging-questions-a-little-easier74, stdev=11322.69
    clat (usec): min=0, max=12031, avg= 0.41, stdev=32.24
     lat (usec): min=1, max=200042, avg=1442.29, stdev=11323.05
    clat percentiles (usec):
     |  1.00th=[    0],  5.00th=[    0], 10.00th=[    0], 20.00th=[    0],
     | 30.00th=[    0], 40.00th=[    0], 50.00th=[    0], 60.00th=[    0],
     | 70.00th=[    0], 80.00th=[    1], 90.00th=[    1], 95.00th=[    1],
     | 99.00th=[    2], 99.50th=[    2], 99.90th=[    3], 99.95th=[    9],
     | 99.99th=[   14]
    bw (KB  /s): min=  426, max=282171, per=13.12%, avg=2906.99, stdev=17280.75
    lat (usec) : 2=98.88%, 4=1.03%, 10=0.05%, 20=0.04%, 50=0.01%
    lat (usec) : 100=0.01%, 250=0.01%
    lat (msec) : 10=0.01%, 20=0.01%
  cpu          : usr=0.09%, sys=0.25%, ctx=7912, majf=0, minf=227
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=332678/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=1299.6MB, aggrb=22155KB/s, minb=22155KB/s, maxb=22155KB/s, mint=60062msec, maxt=60062msec

Disk stats (read/write):
  sdb: ios=0/94158, merge=0/75298, ticks=0/116296, in_queue=116264, util=98.40%

я обрезал вывод, произведенный, в то время как он работает для хранения этого ответа читаемым размером.

Объяснение вывода, что я нашел интересным:

Вы видите, что мы получаем минуту, макс. среднее и стандартное отклонение для всех этих метрик.

планка указывает на задержку представления -

, clat указывает на задержку завершения. Это - время, которое передает между представлением ядру и когда IO завершен, не включая задержку представления. В более старых версиях fio это было лучшей метрикой для приближения задержки прикладного уровня.

lat, кажется, является довольно новым. Кажется, что эта метрика запускает момент, структура IO создается в fio и завершается прямо после clat, делая это тем, которое лучше всего представляет то, что испытают приложения. Это - то, которое Вы, вероятно, захотите изобразить в виде графика.

пропускная способность bw довольно очевидна за исключением на = часть. В документах говорится, что это предназначено для тестирования единого устройства с несколькими рабочими нагрузками, таким образом, Вы видите, сколько из IO было использовано каждым процессом.

, Когда fio выполняется против нескольких устройств, как я сделал для этого вывода, он может обеспечить полезное сравнение независимо от того, что он предназначил, чтобы цель состояла в том, чтобы протестировать определенную рабочую нагрузку.

я уверен, что это не удивляет, что задержка на жестком диске намного выше, чем тот из твердотельного накопителя.

Источники:

https://tobert.github.io/post/2014-04-17-fio-output-explained.html

https://github.com/axboe/fio/blob/master/README

7
ответ дан 23 November 2019 в 04:36

Другие вопросы по тегам:

Похожие вопросы: