mdadm RAID 1 - unidade sobressalente após a troca do cabo SATA

3

Ontem, meu provedor de hospedagem mudou um cabo SATA de um dos meus HDDs. Quando meu servidor voltou, cat /proc/mdstat mostrou isso:

Personalities : [raid1]
md124 : active raid1 sda1[0]
      4193268 blocks super 1.2 [2/1] [U_]

md125 : active (auto-read-only) raid1 sda2[0]
      524276 blocks super 1.2 [2/1] [U_]

md126 : active (auto-read-only) raid1 sda3[0]
      268434296 blocks super 1.2 [2/1] [U_]

md127 : active raid1 sda4[0]
      2657109311 blocks super 1.2 [2/1] [U_]

md3 : active (auto-read-only) raid1 sdb4[1]
      2657109311 blocks super 1.2 [2/1] [_U]

md2 : active raid1 sdb3[1]
      268434296 blocks super 1.2 [2/1] [_U]

md1 : active (auto-read-only) raid1 sdb2[1]
      524276 blocks super 1.2 [2/1] [_U]

md0 : active (auto-read-only) raid1 sdb1[1]
      4193268 blocks super 1.2 [2/1] [_U]

Eu iniciei o console de resgate, vendo que todos os arrays estão degradados.

md3 : active (auto-read-only) raid1 sdb4[1]
      2657109311 blocks super 1.2 [2/1] [_U]

md2 : active raid1 sdb3[1]
      268434296 blocks super 1.2 [2/1] [_U]

md1 : active (auto-read-only) raid1 sdb2[1]
      524276 blocks super 1.2 [2/1] [_U]

md0 : active (auto-read-only) raid1 sdb1[1]
      4193268 blocks super 1.2 [2/1] [_U]

Em seguida, adicionei as unidades ausentes a cada matriz:

mdadm /dev/md0 -a /dev/sda1
mdadm /dev/md1 -a /dev/sda2
mdadm /dev/md2 -a /dev/sda3
mdadm /dev/md3 -a /dev/sda4

Em seguida, os arrays começaram a se recuperar. Depois de concluído, reiniciei o sistema normal e a recuperação começou novamente.

Desta vez, /dev/sdb está marcado como ausente:

Personalities : [raid1]
md3 : active raid1 sda4[2] sdb4[3]
      2657109311 blocks super 1.2 [2/1] [U_]
      [===>.................]  recovery = 17.1% (456317824/2657109311) finish=288.2min speed=127254K/sec

A recuperação parou após 3 horas e agora a unidade está marcada como sobressalente:

md3 : active raid1 sda4[2] sdb4[3](S)
      2657109311 blocks super 1.2 [2/1] [U_]

md2 : active raid1 sda3[2] sdb3[1]
      268434296 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[2] sdb2[1]
      524276 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sda1[2] sdb1[1]
      4193268 blocks super 1.2 [2/2] [UU]

Até agora, não perdi nenhum dado - verifiquei minha própria conta de e-mail e todos os e-mails que recebi antes de o servidor ser desligado ainda estavam lá, onde o disco rígido estava falhando há três dias.

Como posso adicionar o disco sobressalente à minha matriz RAID /dev/md3 novamente?

Eu encontrei outra pergunta / resposta que parece semelhante ao meu problema aqui . Isso seria seguro ou eu poderia sofrer perda de dados?:

mdadm --grow /dev/md3 --raid-devices=3
mdadm /dev/md3 --fail /dev/{failed drive}
mdadm /dev/md3 --remove /dev/{failed drive}
mdadm --grow /dev/md3 --raid-devices=2

É claro que tenho backups, mas se puder evitar usá-los, eu gostaria de fazer isso.

EDITAR: Acabei de ver um erro de leitura em dmesg , que provavelmente ocorreu antes da falha da unidade e foi marcado como sobressalente:

[17699.328298] ata1.00: irq_stat 0x40000008
[17699.328324] ata1.00: failed command: READ FPDMA QUEUED
[17699.328356] ata1.00: cmd 60/08:00:80:d8:05/00:00:ff:00:00/40 tag 0 ncq 4096 in
[17699.328358]          res 51/40:08:80:d8:05/00:00:ff:00:00/40 Emask 0x409 (media error) <F>
[17699.328446] ata1.00: status: { DRDY ERR }
[17699.328471] ata1.00: error: { UNC }
[17699.332240] ata1.00: configured for UDMA/133
[17699.332281] sd 0:0:0:0: [sda] Unhandled sense code
[17699.332308] sd 0:0:0:0: [sda] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[17699.332342] sd 0:0:0:0: [sda] Sense Key : Medium Error [current] [descriptor]
[17699.332384] Descriptor sense data with sense descriptors (in hex):
[17699.332415]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00
[17699.332491]         ff 05 d8 80
[17699.332528] sd 0:0:0:0: [sda] Add. Sense: Unrecovered read error - auto reallocate failed
[17699.332581] sd 0:0:0:0: [sda] CDB: Read(10): 28 00 ff 05 d8 80 00 00 08 00
[17699.332648] end_request: I/O error, dev sda, sector 4278573184
[17699.332689] ata1: EH complete
[17699.332737] raid1: sda: unrecoverable I/O read error for block 3732258944
[17699.377132] md: md3: recovery done.

Eu testei a unidade antes com smartctl :

smartctl -l selftest /dev/sda
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%      3444         -
[code]

[code]
smartctl -l selftest /dev/sdb
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%      3444   

Mas munin mostra um código de saída smartctl de 64 e smartctl -l error /dev/sda mostra:

=== START OF READ SMART DATA SECTION ===
SMART Error Log Version: 1
ATA Error Count: 552 (device log contains only the most recent five errors)
......
Error 552 occurred at disk power-on lifetime: 3444 hours (143 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:

  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 08 80 d8 05 0f

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 00 80 d8 05 40 00      20:56:57.342  READ FPDMA QUEUED
  ef 10 02 00 00 00 a0 00      20:56:57.342  SET FEATURES [Reserved for Serial ATA]
  27 00 00 00 00 00 e0 00      20:56:57.342  READ NATIVE MAX ADDRESS EXT
  ec 00 00 00 00 00 a0 00      20:56:57.340  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00      20:56:57.340  SET FEATURES [Set transfer mode]


Error 551 occurred at disk power-on lifetime: 3444 hours (143 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.
....

EDIT # 2:

mdadm --examine /dev/sdb4
/dev/sdb4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 38dec3bf:770fb774:6e9a28d0:ff3eac4a
           Name : rescue:3
  Creation Time : Tue Feb 26 21:21:56 2013
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 5314218895 (2534.02 GiB 2720.88 GB)
     Array Size : 5314218622 (2534.02 GiB 2720.88 GB)
  Used Dev Size : 5314218622 (2534.02 GiB 2720.88 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 83caa70a:6fe627f8:5a9a22d4:54a457f8

    Update Time : Tue Jul  9 23:08:37 2013
       Checksum : 7a729887 - correct
         Events : 3478472


   Device Role : spare
   Array State : A. ('A' == active, '.' == missing)

Meu disco rígido acabou de ser substituído.

Personalities : [raid1]
md2 : active raid1 sdb3[1]
      268434296 blocks super 1.2 [2/1] [_U]

md1 : active raid1 sdb2[1]
      524276 blocks super 1.2 [2/1] [_U]

md0 : active (auto-read-only) raid1 sdb1[1]
      4193268 blocks super 1.2 [2/1] [_U]

Eu não usei uma ferramenta para recuperar dados porque eu tinha certeza de que os dados em /dev/sdb estavam atualizados até que meu servidor fosse reiniciado e meu array quebrasse, então copiei o arquivo tabela de partições de /dev/sdb para /dev/sda e reconstruiu a matriz.

copy partitions
sgdisk -R /dev/sda /dev/sdb
mix ids
sgdisk -G /dev/sda
recreate array
--create /dev/md3 --level=1 --raid-devices=2 /dev/sdb4 missing
mdadm /dev/md3 -a /dev/sda3

Bem, espero que desta vez a reconstrução termine.

    
por supernova 09.07.2013 / 22:29

1 resposta

3

Eu hesitaria em aumentar a matriz. Você não quer um array maior, então essa é a operação errada. Pode ser um caminho indireto para alcançar a mesma coisa, mas acho que é uma boa filosofia ficar com os operadores pretendidos, a menos que não haja outra maneira.

Tente:

sudo mdadm manage /dev/md3 --remove /dev/sdb4
sudo mdadm manage /dev/md3 --re-add /dev/sdb4

E assista dmesg para erros de leitura / gravação em / dev / sda ou / dev / sdb enquanto ele é reconstruído.

Parece que /dev/sda tem setores inválidos em /dev/sda4 . Você deve substituir a unidade. Se /dev/sdb está aparecendo bem no S.M.A.R.T. status, A maneira mais fácil seria

  • Obtenha uma nova unidade (suponho que ela será exibida como /dev/sdc )
  • Reparticione exatamente como /dev/sda
  • E um por um falha /dev/sdaX e substitui por /dev/sdcX
  • Permitir que as matrizes sejam reconstruídas a partir de /dev/sdb para md0 - md2

md3 será especial porque mdadm não vê /dev/sdb4 como uma matriz atualmente.

Você pode tentar usar gddrescue para recuperar /dev/sda4 para /dev/sdc4 e, depois disso, tentar montar /dev/md3 :

sudo mdadm --assemble /dev/md3 /dev/sdc4 /dev/sdb4

e veja se vai começar. Se ele iniciar, fsck do sistema de arquivos para verificar erros e, em seguida, remover / adicionar novamente o sdb4 para iniciar a ressincronização. Você terá alguns arquivos que são ruins / ausentes / danificados e precisará recuperar os arquivos dos backups.

Se você não conseguir uma boa cópia de /dev/sda4 a /dev/sdc4 , precisará criar uma nova matriz de /dev/sdc4 e /dev/sdb4 e recuperar todo o conteúdo do backup.

    
por 09.07.2013 / 22:48