Substitui recentemente um disco defeituoso no meu grupo Raid 6. Tudo correu como esperado, sem problemas. Depois de obter tudo reconstruído usando um novo / dev / sdi1 como um substituto para o / dev / sde1 com falha, decidi tentar um unplug / dev / sde1. Eu adivinhei errado. Eu desliguei e conectei o que estou supondo que era o cabo SATA do / dev / sdh de volta e ligado novamente.
/ dev / sdh1 agora está se recusando a ser adicionado de volta ao array, me dando a mensagem clássica "Dispositivo ou Recurso ocupado" quando eu tento montar ou colocar hotadd nele.
Procurando por aí, parece ser confuso / dev / sdh1 com / dev / sdg1:
fs1 etc # mdadm --examine / dev / sdh1
/ dev / sdh1:
Magia: a92b4efc
Versão: 0.90.00
UUID: 95b6add0: acea3231: a1c8af6a: 322d8026
Hora da Criação: Sáb Aug 16 06:40:57 2008
Raid Nível: raid6
Tamanho Dev usado: 732571904 (698,64 GiB 750,15 GB)
Tamanho da matriz: 3662859520 (3493.18 GiB 3750.77 GB)
Dispositivos de ataque: 7
Total de dispositivos: 7
Menor preferido: 0
Update Time : Sat Dec 7 11:00:34 2013
State : clean
Dispositivos ativos: 7
Dispositivos de trabalho: 7
Dispositivos com falha: 0
Dispositivos de reposição: 0
Checksum: 86c78a1c - correto
Eventos: 522025
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
este 3 8 97 3 sync ativo / dev / sdg1
0 0 8 9 0 sync ativo / dev / sda9
1 1 8 65 1 sincronização ativa / dev / sde1
2 2 8 81 2 sync ativo / dev / sdf1
3 3 8 97 3 sync ativo / dev / sdg1
4 4 8 33 4 sync ativo / dev / sdc1
5 5 8 49 5 sync ativo / dev / sdd1
6 6 8 113 6 sincronização ativa / dev / sdh1
Observe que "this" está mostrando como tendo o mesmo número menor que / dev / sdg1. Fazer um "mdadm --examine" em qualquer outro elemento funciona como esperado, com "this" exibindo o número menor que corresponde à partição.
ugh ... olhando para todos os "mdadm --examines" as coisas parecem ainda mais funk. A maioria está mostrando / dev / sda3 (por número menor) como uma unidade de falha, embora / dev / sde1 (menor de 65) tenha sido o defeituoso e removido. / dev / sde1 agora está mostrando como sobressalente. Subir até / dev / sdg1 senão parecer OK, mas / dev / sdh1 está reportando como tendo o mesmo número menor que / dev / sdg1, e / dev / sdi1 está reportando como tendo o mesmo número menor que /dev/sdh1.
Como posso obter isso corrigido? Eu tentei zerar a frente do disco / dev / sdh e recriar partições, mas isso não ajudou.
Eu tenho um backup dos dados, embora em um único disco no momento. Ainda assim, tentei recriar o array, mas ainda assim tenho o "dispositivo ou recurso ocupado":
mdadm --create / dev / md0 --level = 6 --raid-devices = 7 / dev / sda9 / dev / sdc1 / dev / sdd1 / dev / sdf1 / dev / sdg1 / dev / sdh1 / dev / sdi1
mdadm: / dev / sda9 parece fazer parte de um arranjo de raid:
level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdc1 parece ser parte de um arranjo de raid:
level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdd1 parece ser parte de um arranjo de raid:
level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdf1 parece ser parte de um arranjo de raid:
level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: / dev / sdg1 parece ser parte de um arranjo de raid:
level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: super1.x não pode abrir / dev / sdh1: dispositivo ou recurso ocupado
mdadm: / dev / sdh1 não é adequado para este array.
mdadm: / dev / sdi1 parece ser parte de um arranjo de raid:
level = raid6 devices = 7 ctime = Sáb Aug 16 06:40:57 2008
mdadm: create aborted