mdadm O RAID5 não pode ser montado

3

Ontem eu queria fazer alguma manutenção no meu servidor. Eu desligo pressionando o botão liga / desliga uma vez, o que funciona bem todas as vezes.

Depois que o servidor ainda estava desligando depois de 10 minutos, liguei para ele por um dia e o forcei a usar o botão de energia. (Eu tentei entrar nele com o ssh antes de forçar, mas o serviço ssh já estava parado).

Depois de fazer a manutenção e reiniciar o servidor, notei que o meu RAID5 consistindo em discos 7x 2TB não funcionava mais. Ele foi dividido em dois RAIDs que consistiam em 5 discos e 2 discos no modo (S) (reserva), inativos.

Eu tentei mdadm --assemble --scan --run -f , o que não ajudou:

mdadm: Merging with already-assembled /dev/md/128
mdadm: failed to add /dev/sdc1 to /dev/md/128: Invalid argument
mdadm: failed to add /dev/sde1 to /dev/md/128: Invalid argument
mdadm: failed to RUN_ARRAY /dev/md/128: Input/output error
mdadm: No arrays found in config file or automatically

Parecia meio montar as coisas:

cat /proc/mdstat 
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md128 : inactive sda1[0] sdg1[6] sdf1[5] sdd1[7] sdb1[1]
      9766891962 blocks super 1.2

unused devices: <none>

Eu também tentei remontá-lo manualmente usando mdadm --assemble --run /dev/md0 /dev/sd[abcdefg]1 --verbose :

mdadm: looking for devices for /dev/md0
mdadm: /dev/sda1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 4.
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 6.
mdadm: /dev/sdg1 is identified as a member of /dev/md0, slot 5.
mdadm: added /dev/sdb1 to /dev/md0 as 1
mdadm: failed to add /dev/sdc1 to /dev/md0: Invalid argument
mdadm: failed to add /dev/sde1 to /dev/md0: Invalid argument
mdadm: added /dev/sdd1 to /dev/md0 as 4
mdadm: added /dev/sdg1 to /dev/md0 as 5
mdadm: added /dev/sdf1 to /dev/md0 as 6
mdadm: added /dev/sda1 to /dev/md0 as 0
mdadm: failed to RUN_ARRAY /dev/md0: Input/output error

Agora, examinando todos os discos mdadm --examine /dev/sd[abcdefg]1 tem essa saída veja em hastebin.com que, para mim, parece que tudo está bem .

Aqui estão os discos que usam lsblk

NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                         8:0    0   1,8T  0 disk 
└─sda1                      8:1    0   1,8T  0 part 
sdb                         8:16   0   1,8T  0 disk 
└─sdb1                      8:17   0   1,8T  0 part 
sdc                         8:32   0   1,8T  0 disk 
└─sdc1                      8:33   0   1,8T  0 part 
sdd                         8:48   0   1,8T  0 disk 
└─sdd1                      8:49   0   1,8T  0 part 
sde                         8:64   1   1,8T  0 disk 
└─sde1                      8:65   1   1,8T  0 part 
sdf                         8:80   1   1,8T  0 disk 
└─sdf1                      8:81   1   1,8T  0 part 
sdg                         8:96   1   1,8T  0 disk 
└─sdg1                      8:97   1   1,8T  0 part 

Os HDDs em uso não são os melhores, mas funcionam. A saída SMART para todas as unidades de sda a sdg também pode ser encontrada em hastebin.com.

Devido ao fato de que dois discos do meu RAID5 produzem erros, presumo que todos os dados já estão perdidos. ...

EDIT 1:

dmesg -T retorna:

[Sa Okt  7 15:41:08 2017] md/raid:md128: device sda1 operational as raid disk 0
[Sa Okt  7 15:41:08 2017] md/raid:md128: device sdf1 operational as raid disk 6
[Sa Okt  7 15:41:08 2017] md/raid:md128: device sdb1 operational as raid disk 1
[Sa Okt  7 15:41:08 2017] md/raid:md128: device sdd1 operational as raid disk 4
[Sa Okt  7 15:41:08 2017] md/raid:md128: device sdg1 operational as raid disk 5
[Sa Okt  7 15:41:08 2017] md/raid:md128: not enough operational devices (2/7 failed)
[Sa Okt  7 15:41:08 2017] md/raid:md128: failed to run raid set.
[Sa Okt  7 15:41:08 2017] md: pers->run() failed ...
[Sa Okt  7 15:41:12 2017] md: md127 stopped.
[Sa Okt  7 15:41:15 2017] md: md128 stopped.
[Sa Okt  7 15:41:20 2017] md: md0 stopped.
[Sa Okt  7 15:41:20 2017] md: sdc1 does not have a valid v1.2 superblock, not importing!
[Sa Okt  7 15:41:20 2017] md: md_import_device returned -22
[Sa Okt  7 15:41:20 2017] md: sde1 does not have a valid v1.2 superblock, not importing!
[Sa Okt  7 15:41:20 2017] md: md_import_device returned -22

Como posso reparar os superquadros?

Estou fazendo algo errado aqui?

Por que eu recebo:

mdadm: failed to add [...] to [...]: Invalid argument ?

Qual argumento é inválido aqui?

Como posso depurar isso mais?

    
por Flatron 07.10.2017 / 15:40

1 resposta

1

Atenção: Esta resposta é sobre o sintoma decisivo, mas descobriu-se que a resposta real é diferente do que eu sugeri.

No entanto, isso pode ter acontecido: O problema é provavelmente este:

Unused Space : before=262056 sectors, after=177 sectors
Unused Space : before=262056 sectors, after=177 sectors
Unused Space : before=262056 sectors, after=18446744073709289480 sectors
Unused Space : before=262056 sectors, after=177 sectors
Unused Space : before=262056 sectors, after=18446744073709289480 sectors
Unused Space : before=262056 sectors, after=177 sectors
Unused Space : before=262056 sectors, after=177 sectors

Eu não posso oferecer uma maneira agradável de corrigir isso. Você deve fazer um backup dos metadados MD do sdc1 e depois dar uma olhada no formato em disco e usar um editor hexadecimal para corrigir isso.

Talvez você possa simplesmente copiar a parte relevante com dd de um dos outros discos. Você "apenas" precisa descobrir onde esses bytes estão.

É engraçado:

   Checksum : 85f67f98 - correct
   Checksum : 6a4fb921 - correct
   Checksum : 92db2c10 - correct
   Checksum : ad5c81b8 - correct
   Checksum : a657023 - correct
   Checksum : 6880d6c7 - correct
   Checksum : c0c31cf - correct

Então, talvez a correção dos metadados destrua a soma de verificação. Eu não sei se isso é um problema real, mas nesse momento provavelmente faz sentido fazer uma nova pergunta.

    
por 07.10.2017 / 17:49