Набег программного обеспечения - mdadm - повторно находит мой массив

Описание

Сегодня я включил другой жесткий диск и отключил мои диски набега гарантировать, когда я вытер диск, я случайно не выберу неправильные диски.

Теперь, когда я повторно включился в своих дисках, набег программного обеспечения, 1 массив больше не смонтирован/распознан/найден. Используя дисковую утилиту, я видел, что диски являются/dev/sda и/dev/sdb, таким образом, я пытался работать sudo mdadm -A /dev/sda /dev/sdb К сожалению, я продолжаю получать утверждение сообщения об ошибке mdadm: device /dev/sda exists but is not an md array


Спецификации:

ОС: Ubuntu 12.04 Рабочий стол LTS (64 бита)

Диски: Красный WD 2 x 3 ТБ (те же совершенно новые модели) ОС, установленная на третьем диске (64 ГБ ssd) (много установок Linux)

Материнская плата: P55 FTW

Процессор: Intel i7-870 Full Specs


Результат sudo mdadm --assemble --scan

mdadm: No arrays found in config file or automatically

Когда я загружаюсь от режима восстановления, я получаю огромное количество 'ata1 ошибка' коды, летящие в течение очень долгого времени.

Кто-либо может сообщить мне надлежащие шаги для восстановления массива?

Я был бы счастлив, просто восстанавливают данные, если это - возможная альтернатива восстановлению массива. Я читал о 'тестовом диске', и он указывает на Wiki, что может найти потерянные разделы для Linux RAID md 0.9/1.0/1.1/1.2, но я выполняю mdadm версию 3.2.5, которой это кажется. У кого-либо еще был опыт с использованием, это для восстановления программного обеспечения совершает рейд на 1 данные?


Результат sudo mdadm --examine /dev/sd* | grep -E "(^\/dev|UUID)"

mdadm: No md superblock detected on /dev/sda.
mdadm: No md superblock detected on /dev/sdb.
mdadm: No md superblock detected on /dev/sdc1.
mdadm: No md superblock detected on /dev/sdc3.
mdadm: No md superblock detected on /dev/sdc5.
mdadm: No md superblock detected on /dev/sdd1.
mdadm: No md superblock detected on /dev/sdd2.
mdadm: No md superblock detected on /dev/sde.
/dev/sdc:
/dev/sdc2:
/dev/sdd:

Содержание mdadm.conf:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Tue, 08 Jan 2013 19:53:56 +0000
# by mkconf $Id$

Результат sudo fdisk -l поскольку Вы видите sda, и sdb отсутствуют.

Disk /dev/sdc: 64.0 GB, 64023257088 bytes
255 heads, 63 sectors/track, 7783 cylinders, total 125045424 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0009f38d

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1   *        2048     2000895      999424   82  Linux swap / Solaris
/dev/sdc2         2002942    60594175    29295617    5  Extended
/dev/sdc3        60594176   125044735    32225280   83  Linux
/dev/sdc5         2002944    60594175    29295616   83  Linux

Disk /dev/sdd: 60.0 GB, 60022480896 bytes
255 heads, 63 sectors/track, 7297 cylinders, total 117231408 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x58c29606

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1   *        2048      206847      102400    7  HPFS/NTFS/exFAT
/dev/sdd2          206848   234455039   117124096    7  HPFS/NTFS/exFAT

Disk /dev/sde: 60.0 GB, 60022480896 bytes
255 heads, 63 sectors/track, 7297 cylinders, total 117231408 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sde doesn't contain a valid partition table

Вывод dmesg | grep ata был очень длинен, таким образом, вот ссылка: http://pastebin.com/raw.php?i=H2dph66y


Вывод dmesg | grep ata | возглавляет-n 200 после установки BIOS к ahci и необходимости загрузиться без тех двух дисков.

[    0.000000]  BIOS-e820: 000000007f780000 - 000000007f78e000 (ACPI data)
[    0.000000] Memory: 16408080k/18874368k available (6570k kernel code, 2106324k absent, 359964k reserved, 6634k data, 924k init)
[    1.043555] libata version 3.00 loaded.
[    1.381056] ata1: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4100 irq 47
[    1.381059] ata2: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4180 irq 47
[    1.381061] ata3: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4200 irq 47
[    1.381063] ata4: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4280 irq 47
[    1.381065] ata5: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4300 irq 47
[    1.381067] ata6: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4380 irq 47
[    1.381140] pata_acpi 0000:0b:00.0: PCI INT A -> GSI 18 (level, low) -> IRQ 18
[    1.381157] pata_acpi 0000:0b:00.0: setting latency timer to 64
[    1.381167] pata_acpi 0000:0b:00.0: PCI INT A disabled
[    1.429675] ata_link link4: hash matches
[    1.699735] ata1: SATA link down (SStatus 0 SControl 300)
[    2.018981] ata2: SATA link down (SStatus 0 SControl 300)
[    2.338066] ata3: SATA link down (SStatus 0 SControl 300)
[    2.657266] ata4: SATA link down (SStatus 0 SControl 300)
[    2.976528] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
[    2.979582] ata5.00: ATAPI: HL-DT-ST DVDRAM GH22NS50, TN03, max UDMA/100
[    2.983356] ata5.00: configured for UDMA/100
[    3.319598] ata6: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[    3.320252] ata6.00: ATA-9: SAMSUNG SSD 830 Series, CXM03B1Q, max UDMA/133
[    3.320258] ata6.00: 125045424 sectors, multi 16: LBA48 NCQ (depth 31/32), AA
[    3.320803] ata6.00: configured for UDMA/133
[    3.324863] Write protecting the kernel read-only data: 12288k
[    3.374767] pata_marvell 0000:0b:00.0: PCI INT A -> GSI 18 (level, low) -> IRQ 18
[    3.374795] pata_marvell 0000:0b:00.0: setting latency timer to 64
[    3.375759] scsi6 : pata_marvell
[    3.376650] scsi7 : pata_marvell
[    3.376704] ata7: PATA max UDMA/100 cmd 0xdc00 ctl 0xd880 bmdma 0xd400 irq 18
[    3.376707] ata8: PATA max UDMA/133 cmd 0xd800 ctl 0xd480 bmdma 0xd408 irq 18
[    3.387938] sata_sil24 0000:07:00.0: version 1.1
[    3.387951] sata_sil24 0000:07:00.0: PCI INT A -> GSI 19 (level, low) -> IRQ 19
[    3.387974] sata_sil24 0000:07:00.0: Applying completion IRQ loss on PCI-X errata fix
[    3.388621] scsi8 : sata_sil24
[    3.388825] scsi9 : sata_sil24
[    3.388887] scsi10 : sata_sil24
[    3.388956] scsi11 : sata_sil24
[    3.389001] ata9: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf0000 irq 19
[    3.389004] ata10: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf2000 irq 19
[    3.389007] ata11: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf4000 irq 19
[    3.389010] ata12: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf6000 irq 19
[    5.581907] ata9: SATA link up 3.0 Gbps (SStatus 123 SControl 0)
[    5.618168] ata9.00: ATA-8: OCZ-REVODRIVE, 1.20, max UDMA/133
[    5.618175] ata9.00: 117231408 sectors, multi 16: LBA48 NCQ (depth 31/32)
[    5.658070] ata9.00: configured for UDMA/100
[    7.852250] ata10: SATA link up 3.0 Gbps (SStatus 123 SControl 0)
[    7.891798] ata10.00: ATA-8: OCZ-REVODRIVE, 1.20, max UDMA/133
[    7.891804] ata10.00: 117231408 sectors, multi 16: LBA48 NCQ (depth 31/32)
[    7.931675] ata10.00: configured for UDMA/100
[   10.022799] ata11: SATA link down (SStatus 0 SControl 0)
[   12.097658] ata12: SATA link down (SStatus 0 SControl 0)
[   12.738446] EXT4-fs (sda3): mounted filesystem with ordered data mode. Opts: (null)

Умные тесты на дисках оба возвратились 'здоровые' однако, я не могу загрузить машину с дисками, включенными, когда машина находится в режиме AHCI (я не знаю, имеет ли это значение, но это красные WD на 3 ТБ). Я надеюсь, что это означает, что диски прекрасны, как они были вполне немного для покупки и совершенно новый. Дисковая утилита показывает крупный серый, 'неизвестный' показанный ниже:

Image of disk utility showing healthy drives

Я с тех пор удалил свой RevoDrive, чтобы попытаться сделать вещи более простыми/более ясными.


Насколько я могу сказать, материнская плата не имеет двух контроллеров. Возможно, Revodrive, который я с тех пор удалил, который включает через PCI, путал вещи?


Кто-либо получил какие-либо предложения для того, как восстановить данные из диска вместо того, чтобы восстановить массив? Т.е. пошаговое при использовании испытательного стенда или некоторой другой программы восстановления данных....


Я попытался поместить диски в другую машину. У меня была та же проблема, где машина не закончит экран BIOS, но этот постоянно перезагружал бы себя. Единственный способ заставить машину загружаться состоял бы в том, чтобы отключить диски. Я пытался использовать различные sata кабели также без справки. Мне действительно однажды удавалось заставить это обнаруживать, что диск, но снова mdadm - исследует не, показал блока. Это предполагает, что мои диски сами являются # @@# $ # даже при том, что короткие умные тесты указали, что были 'здоровы'?


Кажется, что диски действительно вне спасения. Я не могу даже отформатировать объемы в дисковой утилите. Привычка Gparted видит диски поставить таблицу разделов. Я не могу даже дать безопасную команду стирания, чтобы полностью сбросить диски. Это был определенно набег программного обеспечения, который я настроил, после discvering, который аппаратный набег я первоначально попробовал, был на самом деле 'поддельный' набег и медленнее, чем набег программного обеспечения.

Спасибо за все Ваши усилия к попытке помочь мне. Я предполагаю, что 'ответ' нет ничего, что можно сделать, если Вам так или иначе удается уничтожить оба Ваших диска одновременно.


Я повторил УМНЫЕ тесты (на этот раз в командной строке, а не дисковой утилите), и диски действительно отвечают успешно 'без ошибки'. Однако я не могу отформатировать диски (использующий дисковую утилиту) или иметь их распознанный Gparted в той машине или другом. Я также не могу выполнить hdparm безопасное стирание или команды пароля набора безопасности на дисках. Возможно, мне нужны к dd/dev/null все диски? Как же они все еще отвечают на УМНЫЙ, но два компьютера не могут сделать что-нибудь с ними? Я запускаю длинные умные тесты на обоих дисках теперь и отправлю результаты через 255 минут (это - то, сколько времени это сказало, что собиралось взять).

Я поднял информацию о процессоре с другими техническими спецификациями (материнской платой и т.д.), Это оказывается предпесчаной архитектурой.


Вывод Расширенного УМНОГО сканирования одного диска:

smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-36-generic] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Device Model:     WDC WD30EFRX-68AX9N0
Serial Number:    WD-WMC1T1480750
LU WWN Device Id: 5 0014ee 058d18349
Firmware Version: 80.00A80
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   9
ATA Standard is:  Exact ATA specification draft version not indicated
Local Time is:    Sun Jan 27 18:21:48 2013 GMT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (41040) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   2) minutes.
Extended self-test routine
recommended polling time:    ( 255) minutes.
Conveyance self-test routine
recommended polling time:    (   5) minutes.
SCT capabilities:          (0x70bd) SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   196   176   021    Pre-fail  Always       -       5175
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       29
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       439
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       29
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       24
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       4
194 Temperature_Celsius     0x0022   121   113   000    Old_age   Always       -       29
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed without error       00%       437         -
# 2  Short offline       Completed without error       00%       430         -
# 3  Extended offline    Aborted by host               90%       430         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Это сказало завершенный без ошибки. Это означает, что диск должен быть прекрасным или быть просто, который тест смог завершить? Если я запускаю новый вопрос, поскольку я более обеспокоен возвращением использования дисков, а не данных/массива RAID в этой точке...


Хорошо сегодня я просматривал свою файловую систему, чтобы видеть, были ли какие-либо данные для хранения перед установкой песней вместо этого. Я заметил папку, названную dmraid.sil в моей домашней папке. Я предполагаю, что это от того, когда я первоначально настроил массив RAID с поддельным RAID-контроллером? Я удостоверился, что удалил устройство (некоторое время назад путь перед этой проблемой) и прежде, чем использовал mdadm для создания 'набега программного обеспечения'. Есть ли какой-либо способ, которым я пропустил прием где-нибудь, и это так или иначе выполняло 'поддельный' набег без устройства и об именно это эта dmraid.sil папка - все? Так перепутанный. Существуют файлы там как sda.size sda_0.dat sda_0.offset и т.д. Любой совет относительно того, что представляет эта папка, был бы полезен.


Оказывается, что диски были заблокированы! Я разблокировал их достаточно легко с командой hdparm. Это, вероятно, что вызвало все ошибки Ввода-вывода. К сожалению, у меня теперь есть эта проблема:

enter image description here

Мне удалось смонтировать md устройство. Действительно ли возможно отключить один диск, отформатировать его к нормальному диску и скопировать данные в это? У меня было достаточно 'забавы' с набегом, и собираюсь спуститься по автоматизированному резервному маршруту с rsync, я думаю. Я хочу спросить, прежде чем я сделаю что угодно, что может вызвать проблемы целостности данных.


14
задан 13 April 2017 в 15:24

1 ответ

Проблема заключалась в том, что в какой-то момент приводы были заблокированы. Это объясняет:

  • Ошибки ввода / вывода, которые я получал для всех команд.
  • Невозможность отформатировать диски или увидеть их с помощью gparted.
  • Невозможность загрузки с подключенными дисками. (Было бы полезно, если бы терминал не выводил это как SMART status BAD)
  • Тот факт, что я получаю ошибки ввода-вывода на нескольких компьютерах, показывает это были не кабели / автобус.

После разблокировки с помощью простой команды hdparm sudo hdparm --user-master u --security-unlock p /dev/sdb(c) и перезагрузки мое устройство mdxxx стало видимым в gparted. Затем я смог просто смонтировать его в папку и посмотреть все мои данные! Я понятия не имею, что привело к «блокировке» дисков. Мне тоже не хватает e2label, кажется. Я понятия не имею, что это такое. Возможно, кто-то может дать лучший ответ, который объясняет:

  • , как диски могли быть заблокированы в первую очередь (отключение дисков, когда система работает / работает / работает?)
  • не является ли это массивом mdadm? или если это то, почему файл конфигурации, кажется, не показывает это?
0
ответ дан 13 April 2017 в 15:24

Другие вопросы по тегам:

Похожие вопросы: