Как изменить/устранить неправильно обнаруженный dmraid (FakeRaid) массив RAID 10

Я пытаюсь заставить dmraid правильно обнаруживать существующий массив RAID 10, который хорошо работает в окнах 7. Таким образом, установка диска и разделение BIOS как следуют:

  • 2 x SSD (120 ГБ), RAID 0.

    Разделенный в: 180 GB (win7) и 58 GB (Ubuntu).

    Оба обнаруженные и монтирование прекрасного в Ubuntu.

  • 4 x жестких диска (2 ТБ), RAID 1+0. Единственный раздел на 4 ТБ.

    Не работа в человечности.


Сама установка Ubuntu находится на разделенной чередуемой дисковой паре и хорошо работает. Эти два раздела (180 ГБ и 58 ГБ) соответствуют следующему LVM's (я брал на себя смелость для форматирования данных для удобочитаемости):

#$ sudo dmsetup info /dev/dm-{1,2,3,4,5}
|----------+--------+---------------+-----------+----------+--------|
| dev/dm-0 | ubuntu | pdc_hjijcjji  | container |          | 58 GB  |
| dev/dm-1 | ubuntu | pdc_hjijcjji1 | /         | ext4     | 54 GB  |
| dev/dm-2 | ubuntu | pdc_hjijcjji2 |           | extended | 4.3 GB |
| dev/dm-3 | win 7  | pdc_fjhhdeeg  | container |          | 180 GB |
| dev/dm-4 | ubuntu | pdc_hjijcjji5 |           | swap     | 4.3 GB |
| dev/dm-5 | win 7  | pdc_fjhhdeeg1 |           | ntfs     | 180 GB |
|----------+--------+---------------+-----------+----------+--------|

Набег 10 массивов (который является тем, который я нуждаюсь в помощи для получения его работающий в рамках Ubuntu) состоят из четырех дисков на 2 ТБ, и дайте получающийся массив на 4 ТБ. Это кажется как будто dmraid знает об этом массиве, учитывая следующий вывод:

#$ sudo dmraid -r
|----------+--------+------------------+--------+---------+----------------+---------|
| Device   | Format | Name             | Type   | Status? | Size (sectors) | ?       |
|----------+--------+------------------+--------+---------+----------------+---------|
| /dev/sdf | pdc    | pdc_fjhhdeeg     | stripe | ok      |      175781248 | data@ 0 |
| /dev/sde | pdc    | pdc_fjhhdeeg     | stripe | ok      |      175781248 | data@ 0 |
| /dev/sdd | pdc    | pdc_bjibibahah-1 | stripe | ok      |     1758766336 | data@ 0 |
| /dev/sdc | pdc    | pdc_bjibibahah-1 | stripe | ok      |     1758766336 | data@ 0 |
| /dev/sda | pdc    | pdc_bjibibahah-0 | stripe | ok      |     1758766336 | data@ 0 |
| /dev/sdb | pdc    | pdc_bjibibahah-0 | stripe | ok      |     1758766336 | data@ 0 |
|----------+--------+------------------+--------+---------+----------------+---------|

Который отбрасывает меня немного, так как я ожидал бы массив, pdc_hjijcjji, обнаружиться здесь также. Возможно, так как это - раздел в чередуемом диске, это включено в pdc_fjhhdeeg. В любом случае чередуемый массив хорошо работает, таким образом, я не слишком волнуюсь по поводу этого.

pdc_hjijcjji обнаруживается при выполнении dmraid -s:

#$ sudo dmraid -s
|-----------+----------------+--------------+--------------|
| Name      | pdc_bjibibahah | pdc_fjhhdeeg | pdc_hjijcjji |
|-----------+----------------+--------------+--------------|
|           |       Superset |   Active Set |   Active Set |
| Size (-h) |       1.677 TB |     167.6 GB |      54.0 GB |
| Size      |     3517532672 |    351562496 |    113281024 |
| Stride    |            128 |          128 |          128 |
| Type      |         raid10 |       stripe |       stripe |
| Status    |             ok |           ok |           ok |
| Subsets   |              2 |            0 |            0 |
| Devs      |              4 |            2 |            2 |
| Spares    |              0 |            0 |            0 |
|-----------+----------------+--------------+--------------|
# Size is in blocks of 512 bytes.

Где pdc_bjibibahah кажется, соответствует массиву Raid10, за исключением того, что он имеет странный размер (1,677 ТБ, как соединено приблизительно к 4 ТБ). Попытка активировать это использование dmraid -ay о результатах в смонтированном устройстве на 1,677 ТБ с сообщают как освобожденные данные.

Выполнение sudo dmraid -s -si на bjibibahah массив:

#$ sudo dmraid -s -si
|-----------+----------------+------------------+------------------|
| Name      | pdc_bjibibahah | pdc_bjibibahah-0 | pdc_bjibibahah-1 |
|-----------+----------------+------------------+------------------|
|           |       Superset |           Subset |           Subset |
| Size (-h) |       1.638 TB |         1.638 TB |         1.638 TB |
| Size      |     3517532672 |       3517532672 |       3517532672 |
| Stride    |            128 |              128 |              128 |
| Type      |         raid10 |           stripe |           stripe |
| Status    |             ok |               ok |               ok |
| Subsets   |              2 |                0 |                0 |
| Devs      |              4 |                2 |                2 |
| Spares    |              0 |                0 |                0 |
|-----------+----------------+------------------+------------------|

Я попытался настроить массивы вручную, но без успеха, и man страница не оказывается слишком полезной также. Если у кого-либо есть предложение относительно того, как настроить dmraid, или убедить это изменять конфигурацию массива RAID10, я был бы действительно благодарен.

Вот несколько выводов, должен это быть релевантным:

$ sudo dmraid -V
dmraid version:     1.0.0.rc16 (2009.09.16) shared
dmraid library version: 1.0.0.rc16 (2009.09.16)
device-mapper version:  4.20.0

$ sudo dmsetup --version
Library version:   1.02.48 (2010-05-20)
Driver version:    4.20.0

$ uname -srvm
Linux 3.0.0-16-generic #28-Ubuntu SMP Fri Jan 27 17:44:39 UTC 2012 x86_64

$ lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 11.10
Release:    11.10
Codename:   oneiric

Кроме того, установка набега BIOS массива RAID10 соответствуют следующим дискам в человечности: Код:

|---------+------------+--------------|
| Port:ID | Assignment | OS Disk Name |
|---------+------------+--------------|
|   01:01 | LD 1-1     | /dev/sda     |
|   02:01 | LD 1-2     | /dev/sdb     |
|   03:01 | LD 1-3     | /dev/sdc     |
|   04:01 | LD 1-4     | /dev/sdd     |
|---------+------------+--------------|

Обновление: Я забыл упоминать, что я нахожусь на Перекрестии V материнских плат, с помощью встроенного AMD SB950 контроллер.

Обновление 2: При выполнении sudo dmraid -s -ccs pdc Я получаю следующие сообщения об ошибках:

ERROR: pdc: wrong # of devices in RAID set "pdc_fjhhdeeg" [1/2] on /dev/sdf
ERROR: pdc: wrong # of devices in RAID set "pdc_fjhhdeeg" [1/2] on /dev/sde
ERROR: pdc: wrong # of devices in RAID set "pdc_bjibibahah-1" [1/2] on /dev/sdd
ERROR: pdc: wrong # of devices in RAID set "pdc_bjibibahah-1" [1/2] on /dev/sdc
ERROR: pdc: wrong # of devices in RAID set "pdc_bjibibahah-0" [1/2] on /dev/sdb
ERROR: pdc: wrong # of devices in RAID set "pdc_bjibibahah-0" [1/2] on /dev/sda
*ERR*

Если я опускаю спецификатор pdc и просто пишу sudo dmraid -s -ccs Я получаю еще более загадочное:

*ERR*
*ERR*
*ERR*

Обновление 3: мне удалось удалить плохо настроенное использование массива sudo dmraid -rE как предложено в askubuntu QA здесь. Я все еще получаю "ОШИБКУ: pdc: неправильный # устройств в наборе RAID..." ошибки, которые, кажется, препятствуют дальнейшему прогрессу. Я буду продолжать искать решения этой проблемы.

Править: Есть ли информация, я могу добавить, что это помогло бы кому-либо помочь мне?

2
задан 13 April 2017 в 15:24

2 ответа

Хорошо :) Таким образом, вот Ваша цель:

4 x HDD (2 TB), RAID 1+0. Single 4TB partition.

Наблюдение, что это только сообщает о приблизительно 1.6 ТБ, столько недостающего устройства хранения данных, предлагает проблему метаданных мне.

Я предложил бы разъединить целый массив и удостоверился бы, что метаданные вытерты при помощи dmraid -rE. Затем однажды те диски больше не обнаруживаются, попытайтесь делать простой RAID1 из 2 2T диски, Ваша контейнеровместимость должна быть ближе к 1.8-1.9 затем 1.6. После того как это проверяется, затем создайте свою дорожку, которая должна просто добавить два вместе. Если это не работает, у Вас могла бы быть ошибка или во встроенном микропрограммном обеспечении или в самой dmraid системе.

dmraid является ummm... интересным, учитывая выбор, я предпочел бы не использовать его. Вы в основном берете всю сложность md-набега, без любого увеличения производительности, и затем смешиваетесь в убивании различных форматов метаданных от различных поставщиков и затем совместно используете те метаданные с несколькими операционными системами, полагая, что ОС, с которой Вы совместно использовали его, не разрушает метаданные.

Вы могли бы хотеть протестировать на самом деле отказавших участников замены после того, как Вы получаете эту стабильную конфигурацию, RAID является просто большой единой точкой отказа, если Вы не можете обслужить его.Удачи.

В ответ на Ваш dmraid - проблема ре В этой точке Вы - только опция, dd, если =/dev/zero... и вытирают диски.

2
ответ дан 13 April 2017 в 15:24

У меня есть та же самая проблема, и я полагаю, что наконец (после того, как несколько дней поиска с помощью Google без удовлетворительного ответа) нашел проблему.

я полагаю, что это - ОШИБКА - неподписанный интервал на 32 бита используется для количества секторов где-нибудь (dmraid?).

Примечание, количество секторов на (моем) диске на 2 ТБ: 3906898048, который умноженный на 512B/sector дает 2.0 ТБ или 1.8 ТиБ При чередовании он должен удвоиться, но вместо этого он дает: 3518828800 секторов, умноженных на 512 B/sector, заканчиваются к 1.8 ТБ или 1.6 ТиБ.

Рассмотрение, что Windows 10 читает корректный 4 ТБ размером на этом раздел RAID10, ошибка, вероятно на стороне Linux.

Преобразованный в двоичный файл: 3906898048 -> 0000 1110 1000 1101 1110 1000 1000 1000 0000 2x 3906898048 -> 0001 1101 0001 1011 1101 0001 0001 0000 0000 3518828800 -> 0000 1101 0001 1011 1101 0001 0001 0000 0000

Может нравиться, что кто-то изучает его и создает патч? Спасибо.

0
ответ дан 14 September 2019 в 11:32

Другие вопросы по тегам:

Похожие вопросы: