raid5 array reagrupa como raid0

1

Eu encontrei um problema similar aqui: Missed mdadm raid5 array reagrupa como raid0 após o powerout , mas o meu é um pouco diferente.

Aqui também meu raid5 reagrupa como raid0, mas não vejo nenhum dos meus dispositivos marcados como sobressalentes na saída mdadm -E / dev / sdX1:

/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9b244d41:0b94c8f7:0da323ac:f2a873ec
           Name : bekap:0  (local to host bekap)
  Creation Time : Wed Oct  9 16:03:25 2013
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
     Array Size : 5860267008 (5588.79 GiB 6000.91 GB)
  Used Dev Size : 5860267008 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          State : active
    Device UUID : f8405c86:85d8bade:8a74b0f5:fec08e3f

    Update Time : Sat Jan 16 04:41:05 2016
       Checksum : da1a9cb2 - correct
         Events : 134111

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9b244d41:0b94c8f7:0da323ac:f2a873ec
           Name : bekap:0  (local to host bekap)
  Creation Time : Wed Oct  9 16:03:25 2013
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
     Array Size : 5860267008 (5588.79 GiB 6000.91 GB)
  Used Dev Size : 5860267008 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          State : active
    Device UUID : d704efde:067523c1:a6de1be2:e752323f

    Update Time : Sat Jan 16 04:41:05 2016
       Checksum : 124f919 - correct
         Events : 134111

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9b244d41:0b94c8f7:0da323ac:f2a873ec
           Name : bekap:0  (local to host bekap)
  Creation Time : Wed Oct  9 16:03:25 2013
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
     Array Size : 5860267008 (5588.79 GiB 6000.91 GB)
  Used Dev Size : 5860267008 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          State : clean
    Device UUID : c52383f7:910118d3:e808a29f:b4edad2c

    Update Time : Mon Dec 28 10:46:40 2015
       Checksum : d69974b5 - correct
         Events : 52676

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

Mas eles estão marcados como S (que, até onde eu sei, significa sobressalente) em / proc / mdstat (e não há personalidades para md0):

Personalities : 
md0 : inactive sdb1[0](S) sdd1[3](S) sdc1[1](S)
      8790402048 blocks super 1.2

unused devices: <none>

Aqui está a saída mdadm -D / dev / md0:

/dev/md0:
        Version : 1.2
     Raid Level : raid0
  Total Devices : 3
    Persistence : Superblock is persistent

          State : inactive

           Name : bekap:0  (local to host bekap)
           UUID : 9b244d41:0b94c8f7:0da323ac:f2a873ec
         Events : 134111

    Number   Major   Minor   RaidDevice

       -       8       17        -        /dev/sdb1
       -       8       33        -        /dev/sdc1
       -       8       49        -        /dev/sdd1

Então estou um pouco confuso porque não pode remontar este array se ele tem dois (eu diria bons dispositivos) em três. Eu não tenho certeza se mdadm -D / dev / md0 mostrou-lo como raid0 desde a falha ou se eu apenas estraguei tudo ao tentar remontar a matriz (eu tentei mdadm - stop / dev / md0 e mdadm --assemble - -scan --verbose e mdadm --assemble --scan --verbose / dev / md0 / dev / sdb1 / dev / sdc1 ou algo semelhante - eu posso tentar obter comandos exatos se for necessário).

Então, minha pergunta: posso remover o sdd1 do array, depois montar o md0 sem ele e depois adicionar o sdd1 novamente? Ou devo usar --assemble --force --run como mencionado na pergunta vinculada? Ou alguma outra coisa? Eu sou bastante inexperiente com o Linux raid e mdadm.

Muito obrigado.

    
por upratathlavu 25.01.2016 / 20:39

1 resposta

0

Ok, só para concluir isso - basicamente, o que foi dito nesse link ajudou, aqui estão os meus comandos exatos:

  • mdadm --assemble --force / dev / md0 / dev / sdb1 / dev / sdc1
  • mdadm --add / dev / md0 / dev / sdd1 (--re-add não funcionou), depois disso ele começou a ressincronizar - demorou cerca de 20 horas

Então, desde que há lvm:

  • lvchange -ay dados / dados
  • fsck / dev / data / data

Obrigado pela ajuda.

    
por 19.02.2016 / 13:52