Eu tenho (tinha?) um RAID5 com 3 dispositivos. Um deles morreu, e depois de alguns dias eu senti que o RAID parou. No entanto, eu poderia reiniciá-lo sem problemas, mas ele parou novamente depois de algumas horas, eu reiniciei e parei novamente depois de alguns momentos e assim por diante. Desde um mês, o RAID não pode começar mais. (No último mês, não fiz nada com o RAID, pois não tinha tempo para isso.)
Eu não sei se isso é uma falha de hardware (das unidades) ou "apenas" um contato defeituoso do cabo de alimentação, desde que eu tive problemas com isso um ano atrás. Atualmente estou esperando por "apenas" um contato com defeito. O RAID armazena principalmente dados dos quais eu tenho um backup, no entanto, o backup não contém alterações feitas em um mês ou mais.
Eu encontrei este postagem no blog sobre recuperando de um RAID5 com dois discos com falha . Ele descreve um problema semelhante que eu (espero) ter: as unidades (ou, pelo menos, uma das duas falhas) não são realmente defeituosas, mas apenas foram desconectadas do computador. Sua abordagem é recriar um RAID5 usando todos, mas o primeiro dispositivo com falha.
No meu caso, eu tenho três discos, um deles está morto. Então eu tenho apenas dois restantes: / dev / sda1 e / dev / sdc1, enquanto o último é aquele que foi "separado" (pelo menos, espero que não esteja morto). Por isso, espero que as informações mais importantes sejam examinadas neste dispositivo:
sudo mdadm --examine /dev/sdc1
Magic : a92b4efc
Version : 0.90.00
UUID : 83cb326b:8da61825:203b04db:473acb55 (local to host sebastian)
Creation Time : Wed Jul 28 03:52:54 2010
Raid Level : raid5
Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
Array Size : 1465143808 (1397.27 GiB 1500.31 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 127
Update Time : Tue Oct 23 19:19:10 2012
State : clean
Internal Bitmap : present
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : eaa3f133 - correct
Events : 523908
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 33 1 active sync /dev/sdc1
0 0 8 1 0 active sync /dev/sda1
1 1 8 33 1 active sync /dev/sdc1
2 2 0 0 2 faulty removed
Então, era 23 de outubro, quando o RAID parou de funcionar.
Agora quero recuperar usando os dois dispositivos com o comando
sudo mdadm --verbose --create /dev/md127 --chunk=64 --level=5 --raid-devices=3 /dev/sda1 /dev/sdc1 missing
Espero que alguém possa me dizer se esse é o comando correto a ser usado. Estou muito nervoso ... Está me dizendo para confirmar os seguintes dados sobre as unidades a serem usadas para recriar a matriz:
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: /dev/sda1 appears to contain an ext2fs file system
size=1465143808K mtime=Tue Oct 23 14:39:49 2012
mdadm: /dev/sda1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Wed Jul 28 03:52:54 2010
mdadm: layout defaults to left-symmetric
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Wed Jul 28 03:52:54 2010
mdadm: size set to 732570816K
Continue creating array?
Informações adicionais: uma vez eu criei o array com drives de 3 * 750GB, então o sistema de arquivos é de 1.5TB (ext2). Em particular, gostaria de saber se a linha que diz que / dev / sda1 contém um sistema de arquivos extT de 1.5TB está correta, porque na postagem do blog vinculada acima, sua saída não mostra tal linha ...
Pergunto-me também se devo zerar o superbloco em qualquer dispositivo primeiro ...
Há alguma verificação que eu possa fazer para confirmar que isso provavelmente não matará algo totalmente para o qual existe uma chance de se recuperar?