Eu estava adicionando uma nova unidade adicional ao array de 4 unidades raid 5 mdadm. Durante o processo, essa nova unidade foi marcada como defeituosa, junto com uma das quatro unidades de trabalho originais.
De olhar para logs vejo este erro da unidade original com falha (sde1), a nova unidade sdf1 também está na mesma placa pci. Gostaria de saber se talvez o problema seja esta placa em vez das unidades.
21:59:49 kernel: [ 4339.536403] sd 6:0:0:0: [sde] tag#29 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
Anteriormente, a matriz era legível e não relatava um erro em nenhuma das quatro unidades.
Status mdadm atual a operação parece estar parada, a velocidade é continuamente droppping
Depois de remover os discos que o mdadm marcou como falho (sde1 e sdf)
Version : 1.2
Creation Time : Fri Jan 16 18:36:21 2015
Raid Level : raid5
Array Size : 8790406656 (8383.19 GiB 9001.38 GB)
Used Dev Size : 2930135552 (2794.40 GiB 3000.46 GB)
Raid Devices : 5
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Jan 15 21:25:18 2018
State : clean, FAILED, reshaping
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Reshape Status : 0% complete
Delta Devices : 1, (4->5)
Name : :0 (local to host )
UUID : 4d3400aa:55dc5281:293e9722:46ad27b5
Events : 418999
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
3 8 49 2 active sync /dev/sdd1
- 0 0 3 removed
- 0 0 4 removed
A minha pergunta é, estou à espera de um array irrecuperável se esta reformulação for concluída?
O Mdadm está tentando desenvolver um array de 4 discos para um array de 5 discos usando 3 drives .... Deve haver dados de paridade suficientes em apenas 3 drives para recuperar meu array, ou o processo de crescimento que já arruinou naquela?
Esta velocidade está caindo continuamente Eu não tenho certeza se o processo ainda está sendo executado ativamente
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdd1[3] sda1[0] sdb1[1]
8790406656 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [UUU__]
[>....................] reshape = 0.2% (6104064/2930135552) finish=53459.5min speed=911K/sec
bitmap: 2/22 pages [8KB], 65536KB chunk
unused devices: <none>