Советы по настройке рейда 10 на * Ubuntu

Я хотел бы установить программный массив raid 10 (4x2 ТБ) для рабочей станции, использующей новую установку, но я нахожу в сети неприменимые / конфликтующие / старые ресурсы. Я хотел бы получить совет сообщества по настройке такого массива, поскольку, как представляется, существует множество возможных конфигураций.

В частности, я буду использовать рабочую станцию ​​для анализа изображений (то есть типичные размеры файлов от нескольких сотен МБ до нескольких ГБ), поэтому, если есть оптимизация, которая может быть сделана для таких целей, было бы здорово.

Ура

2
задан 14 December 2012 в 18:16

3 ответа

Я не помню точно, какие ресурсы я использовал при настройке RAID на моем сервере, но я думаю, что эта статья была основной информацией. Некоторые важные вещи:

  • Используйте mdadm, а не dmraid.
  • Используйте пути /dev/disk/by-id/ для указания на диски, а не / dev / sda и т. Д. Их проще сопоставить с физическими устройствами, если вам нужно заменить диск или что-то подобное.
  • Будьте терпеливы. Сначала я думал, что мой RAID будет готов после 5 часов начальной настройки. Тогда потребовался другой день, чтобы восстановить себя и фактически быть готовым. (4x2 ТБ)
  • Используйте отдельный диск / раздел / RAID для основной установки ОС. Управлять всем проще, если вы храните большой массив данных отдельно от основной ОС и ее данных. Гораздо проще восстановить небольшой диск ОС, чем восстановить огромный массив массой в несколько терабайт, если что-то пойдет не так на стороне ОС.
0
ответ дан 14 December 2012 в 18:16

С RAID10 в данной ситуации я вижу только двух кандидатов переменных на оптимизацию:

  • Размер блока

    Установите его на что-то большее, чем значение по умолчанию 512 кибибитов для уменьшения издержек для линейных чтений/записей больших файлов. Необходимо попробовать его на небольшом разделе на машине для наблюдения то, что дает лучшую производительность, например, 1 МБ, 2 МБ, 5 МБ, 10 МБ...

  • Рядом по сравнению с Далеким расположением

    сопоставимый с RAID1+0 по сравнению с RAID0+1. Далеко немного быстрее, поскольку производительность для чтения больше похожа на RAID0. Все же Близкое расположение является значением по умолчанию, потому что оно имеет немного более высокий шанс выживания маловероятного события, что все зеркальные диски повреждаются (некоторая математика вероятности здесь). Еще некоторая визуальная идея differens ниже, счастливо украдена от SLES mdadm документация:

    Рядом похож

    sda1 sdb1 sdc1 sdd1
      0    0    1    1
      2    2    3    3
      4    4    5    5
    

    Далеко похож

    sda1 sdb1 sdc1 sdd1
      0    1    2    3
      4    5    6    7       
      . . .
      3    0    1    2
      7    4    5    6
    

Обновление о далеко по сравнению с близким дублированием из обсуждения в комментариях. Предположим sda сбои:

       near
sda1 sdb1 sdc1 sdd1
  -    0    1    1
  -    2    3    3
  -    4    5    5

затем sdc или sdd может все еще перестать работать, в то время как в далеко:

        far
sda1 sdb1 sdc1 sdd1
  -    1    2    3
  -    5    6    7       
  . . .
  -    0    1    2
  -    4    5    6

теперь только sdc может перестать работать, как неудавшееся sdb диск делает блок 4 недоступными и неудавшимся sdd диск сделает блок 3 недоступными.

Заключение: возможности выживания 2 отказов диска выше при использовании близкого расположения. (кто-то может сделать математику здесь для количественного числа?)

1
ответ дан 14 December 2012 в 18:16

Взятие некоторого hotspares заранее было бы хорошей идеей. Также принятие во внимание этих примечаний.

Рекомендуемая схема устройства хранения данных домашнего сервера? (LVM/JBOD/RAID 5...)

См. сноску [1] в вышеупомянутой ссылке для наблюдения то, что происходит с дешевым устройством хранения данных, когда Вам нужен он больше всего.

Это - весь спорный вопрос однако, пока Вы не представляете, как Ваш целевое приложение на самом деле использует устройство хранения данных. Вы могли бы найти, что параллелизм возможен, таким образом, один блок может использоваться для чтения результатов, и один для записи их. Это могло быть далее абстрагировано позади RAID0 (пока HBA не сообщает о QUEUE_FULL) с результатами, сохраненными через rsync.

Это действительно зависит, говоря, что "я делаю анализ изображения", не определяя рабочую нагрузку, или уровень обслуживания просто не достаточно; даже если бы Вы сделали, тот уровень анализа производительности является реальной работой, я знаю, что это - что-то, что "I" не сделал бы в мое свободное время. Мои намерения состоят в том, чтобы заставить Вас думающий о Вашем приложении создавать свои собственные решения. Шпиндели всегда являются самой медленной частью Вашей системы, планируют соответственно.

Одна идея, если бы Вы хотите сделать подход мультимассива, создала бы два RAID 1, на отдельных контроллерах, и добавила бы те устройства MD к LVM VG для управления. Уверенный RAID 10 быстр, но это - все еще одна очередь устройства хранения данных, теперь Вы имеете два, и с отдельными контроллерами нет никакой очереди HBA, совместно использующей также.

Примечания производительности:

Помните, SW, RAID не отличается, чем HW RAID, понимают, как он работает или когда он перестал работать, Вы могли бы закончить тем, что находились в опасности больше в противоположность, говорят что расходы Ваших энергий, создающих стратегию регулярного резервного копирования (rsync.net) вместо этого. Я потерял счет числу пользователей, которые потеряли все, потому что они не прочитали руководство и на самом деле протестировали виды отказа.

-3
ответ дан 14 December 2012 в 18:16

Другие вопросы по тегам:

Похожие вопросы: