Bem, eu fui rápido em postar essa pergunta. Acontece que isso pode acontecer quando ocorre uma queda de energia.
Eu simplesmente adicionei novamente a unidade ( mdadm /dev/md0 --add /dev/sdf
) e o mdadm começou a reconstruir a matriz.
Eu tenho um raid5 que consiste em 8 discos. Depois de uma queda de energia, o mdadm me diz que o ataque está degradado. Aqui está a saída:
/dev/md0:
Version : 0.90
Creation Time : Sat Jul 10 09:08:28 2010
Raid Level : raid5
Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
Raid Devices : 8
Total Devices : 7
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Aug 2 18:42:05 2012
State : clean, degraded
Active Devices : 7
Working Devices : 7
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
Events : 0.9189750
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 16 1 active sync /dev/sdb
2 8 96 2 active sync /dev/sdg
3 8 112 3 active sync /dev/sdh
4 8 32 4 active sync /dev/sdc
5 8 48 5 active sync /dev/sdd
6 8 64 6 active sync /dev/sde
7 0 0 7 removed
Então / dev / sdf está faltando. Então eu tentei obter algumas informações sobre esta unidade. O smartctl não relata problemas e o fdisk -l
lista como esperado. Por fim, tentei mdadm -E /dev/sdf
e obtive esta saída:
/dev/sdf:
Magic : a92b4efc
Version : 0.90.00
UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
Creation Time : Sat Jul 10 09:08:28 2010
Raid Level : raid5
Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Update Time : Wed Mar 28 17:19:58 2012
State : clean
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Checksum : afeeecc7 - correct
Events : 9081618
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 7 8 112 7 active sync /dev/sdh
0 0 8 0 0 active sync /dev/sda
1 1 8 16 1 active sync /dev/sdb
2 2 8 32 2 active sync /dev/sdc
3 3 8 48 3 active sync /dev/sdd
4 4 8 64 4 active sync /dev/sde
5 5 8 80 5 active sync /dev/sdf
6 6 8 96 6 active sync /dev/sdg
7 7 8 112 7 active sync /dev/sdh
Qual é o problema aqui? Devo substituir sdf
ou isso é reparável?
Atualizar
Eu também vi o dmesg
e recebo isto:
[ 9.289086] md: kicking non-fresh sdf from array!
[ 9.289090] md: unbind<sdf>
[ 9.296541] md: export_rdev(sdf)