mdadm confuso em menor número

1

Substitui recentemente um disco defeituoso no meu grupo Raid 6. Tudo correu como esperado, sem problemas. Depois de obter tudo reconstruído usando um novo / dev / sdi1 como um substituto para o / dev / sde1 com falha, decidi tentar um unplug / dev / sde1. Eu adivinhei errado. Eu desliguei e conectei o que estou supondo que era o cabo SATA do / dev / sdh de volta e ligado novamente.

/ dev / sdh1 agora está se recusando a ser adicionado de volta ao array, me dando a mensagem clássica "Dispositivo ou Recurso ocupado" quando eu tento montar ou colocar hotadd nele.

Procurando por aí, parece ser confuso / dev / sdh1 com / dev / sdg1:

fs1 etc # mdadm --examine / dev / sdh1
/ dev / sdh1:
          Magia: a92b4efc
        Versão: 0.90.00
           UUID: 95b6add0: acea3231: a1c8af6a: 322d8026
  Hora da Criação: Sáb Aug 16 06:40:57 2008
     Raid Nível: raid6
  Tamanho Dev usado: 732571904 (698,64 GiB 750,15 GB)
     Tamanho da matriz: 3662859520 (3493.18 GiB 3750.77 GB)
   Dispositivos de ataque: 7
  Total de dispositivos: 7
Menor preferido: 0

Update Time : Sat Dec  7 11:00:34 2013  
      State : clean  

Dispositivos ativos: 7
Dispositivos de trabalho: 7
 Dispositivos com falha: 0
  Dispositivos de reposição: 0
       Checksum: 86c78a1c - correto          Eventos: 522025

     Layout : left-symmetric  
 Chunk Size : 64K  

  Number   Major   Minor   RaidDevice State  

este 3 8 97 3 sync ativo / dev / sdg1

0 0 8 9 0 sync ativo / dev / sda9
   1 1 8 65 1 sincronização ativa / dev / sde1    2 2 8 81 2 sync ativo / dev / sdf1
   3 3 8 97 3 sync ativo / dev / sdg1
   4 4 8 33 4 sync ativo / dev / sdc1
   5 5 8 49 5 sync ativo / dev / sdd1
   6 6 8 113 6 sincronização ativa / dev / sdh1

Observe que "this" está mostrando como tendo o mesmo número menor que / dev / sdg1. Fazer um "mdadm --examine" em qualquer outro elemento funciona como esperado, com "this" exibindo o número menor que corresponde à partição.

ugh ... olhando para todos os "mdadm --examines" as coisas parecem ainda mais funk. A maioria está mostrando / dev / sda3 (por número menor) como uma unidade de falha, embora / dev / sde1 (menor de 65) tenha sido o defeituoso e removido. / dev / sde1 agora está mostrando como sobressalente. Subir até / dev / sdg1 senão parecer OK, mas / dev / sdh1 está reportando como tendo o mesmo número menor que / dev / sdg1, e / dev / sdi1 está reportando como tendo o mesmo número menor que /dev/sdh1.

Como posso obter isso corrigido? Eu tentei zerar a frente do disco / dev / sdh e recriar partições, mas isso não ajudou.

Eu tenho um backup dos dados, embora em um único disco no momento. Ainda assim, tentei recriar o array, mas ainda assim tenho o "dispositivo ou recurso ocupado":

mdadm --create / dev / md0 --level = 6 --raid-devices = 7 / dev / sda9 / dev / sdc1 / dev / sdd1 / dev / sdf1 / dev / sdg1 / dev / sdh1 / dev / sdi1
mdadm: / dev / sda9 parece fazer parte de um arranjo de raid:
    level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdc1 parece ser parte de um arranjo de raid:
    level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdd1 parece ser parte de um arranjo de raid:
    level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdf1 parece ser parte de um arranjo de raid:
    level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdg1 parece ser parte de um arranjo de raid:
    level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: super1.x não pode abrir / dev / sdh1: dispositivo ou recurso ocupado
mdadm: / dev / sdh1 não é adequado para este array.
mdadm: / dev / sdi1 parece ser parte de um arranjo de raid:
    level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: create aborted

    
por Cassey 07.12.2013 / 20:48

0 respostas

Tags