O mdadm marcou o disco como defeituoso e seu log está mostrando erros no disco.
Isso significa que a unidade está quebrada e precisa ser substituída. Não há sentido em lê-lo para o RAID.
Sou bem novo no RAID e estou tendo um problema. Meu servidor me avisou que alguma unidade está com defeito, então eu investiguei:
root@server:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sda1[2](F) sdb1[1]
10485696 blocks [2/1] [_U]
md2 : active raid1 sda2[2](F) sdb2[1]
965746624 blocks [2/1] [_U]
unused devices: <none>
Parece que sda1 e sda2 estão com defeito. Então eu tentei remover sda1
root@server:~# mdadm /dev/md1 -r /dev/sda1
mdadm: hot removed /dev/sda1 from /dev/md1
Estou tentando entender o que devo fazer agora: se eu tentar adicionar o dispositivo novamente, recebo esta mensagem:
root@server:~# mdadm /dev/md1 -a /dev/sda1
mdadm: failed to write superblock to /dev/sda1
Suponho que esteja faltando alguma etapa de reconstrução / restauração. Como posso restaurar o sistema RAID novamente?
ATUALIZAÇÃO:
A saída do dmesg mostra muitos deles, então há alguma evidência de falha de hardware:
sd 0:0:0:0: [sda] Unhandled error code
sd 0:0:0:0: [sda] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
sd 0:0:0:0: [sda] CDB: Read(10): 28 00 00 00 10 07 00 00 01 00
end_request: I/O error, dev sda, sector 4103