Como eu reativo meu array MDADM RAID5?

19

Acabei de mudar de casa, o que envolveu a desmontagem do meu servidor e reconectá-lo. Desde então, um dos meus arrays MDADM RAID5 está aparecendo como inativo:

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

Parece-me que encontrou todos os discos mas, por alguma razão, não quer usá-los.

Então, o que os rótulos (S) significam e como posso dizer ao MDADM para começar a usar o array novamente?

[Editar] Acabei de tentar parar e montar o array com -v :

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

.. e inserindo cat /proc/mdstat não parece diferente.

[Editar2] Não tenho certeza se isso ajuda, mas este é o resultado de examinar cada disco:

root @ mserver: ~ # mdadm --examine / dev / sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

root @ mserver: ~ # mdadm --examin / dev / sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examinam / dev / sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

Eu tenho algumas notas que sugerem que as unidades foram originalmente montadas da seguinte forma:

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Editar3]

Olhando pelo log, parece que o seguinte aconteceu (com base nos Update Time nos resultados --examine ):

  1. sdb e sdf foram eliminados algum tempo depois das 13:22 do dia 20
  2. sdd foi eliminado algum tempo depois das 18:37 do dia 20
  3. o servidor foi encerrado algum tempo depois das 14:00 no primeiro

Dado que dois discos caíram (aparentemente) simultaneamente, acho que deveria ser razoavelmente seguro assumir que o array não teria sido escrito depois desse ponto (?) e, portanto, deve ser relativamente É seguro forçá-lo a reintegrar na ordem correta? Qual é o comando mais seguro para fazer isso e há uma maneira de fazer isso sem gravar nenhuma alteração?

    
por Jon Cage 04.06.2013 / 10:15

3 respostas

27

As etiquetas S significam que o disco é considerado "sobressalente". Você deve tentar parar e reiniciar o array:

  mdadm --stop /dev/md0
  mdadm --assemble --scan

para montar novamente a matriz e, se isso não funcionar, talvez seja necessário atualizar seu mdadm.conf , consulte, por exemplo, esta questão para detalhes sobre como fazer isso.

    
por 04.06.2013 / 11:14
4

Esta questão é um pouco antiga, mas a resposta pode ajudar alguém que enfrenta uma situação semelhante. Observando as contagens de eventos da saída mdadm --examine que você forneceu, elas parecem próximas o suficiente (955190 - para sdb1 e sdf1, 955219 para sde1 e para sdd1 você tem 955205). Se estiverem abaixo de 40-50, isso é OK e, nesse caso, o curso de ação recomendado é montar seu array manualmente, forçando o mdadm a aceitar as unidades apesar da diferença na contagem de eventos:

Pare o array:

mdadm --stop /dev/md0

Em seguida, tente remontar o array manualmente:

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

Verifique o status da matriz, para examinar se a lista / estrutura da unidade está OK (a parte inferior da saída do comando mostrará qual unidade está em qual status e em qual posição na matriz):

mdadm --detail /dev/md0

Se a estrutura estiver correta, verifique o progresso da reconstrução:

cat /proc/mdstat
    
por 13.09.2014 / 03:33
0

Você pode ativar Raid md0 com o comando abaixo

mdadm -A /dev/md0

e este comando para atualizar o arquivo mdadm.conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
    
por 04.06.2013 / 11:02