Problema com o raid5 degradado após queda de energia

1

Eu tenho um raid5 que consiste em 8 discos. Depois de uma queda de energia, o mdadm me diz que o ataque está degradado. Aqui está a saída:

/dev/md0:
        Version : 0.90
  Creation Time : Sat Jul 10 09:08:28 2010
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 7
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Aug  2 18:42:05 2012
          State : clean, degraded
 Active Devices : 7
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
         Events : 0.9189750

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       2       8       96        2      active sync   /dev/sdg
       3       8      112        3      active sync   /dev/sdh
       4       8       32        4      active sync   /dev/sdc
       5       8       48        5      active sync   /dev/sdd
       6       8       64        6      active sync   /dev/sde
       7       0        0        7      removed

Então / dev / sdf está faltando. Então eu tentei obter algumas informações sobre esta unidade. O smartctl não relata problemas e o fdisk -l lista como esperado. Por fim, tentei mdadm -E /dev/sdf e obtive esta saída:

/dev/sdf:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
  Creation Time : Sat Jul 10 09:08:28 2010
     Raid Level : raid5
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0

    Update Time : Wed Mar 28 17:19:58 2012
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0
       Checksum : afeeecc7 - correct
         Events : 9081618

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     7       8      112        7      active sync   /dev/sdh

   0     0       8        0        0      active sync   /dev/sda
   1     1       8       16        1      active sync   /dev/sdb
   2     2       8       32        2      active sync   /dev/sdc
   3     3       8       48        3      active sync   /dev/sdd
   4     4       8       64        4      active sync   /dev/sde
   5     5       8       80        5      active sync   /dev/sdf
   6     6       8       96        6      active sync   /dev/sdg
   7     7       8      112        7      active sync   /dev/sdh

Qual é o problema aqui? Devo substituir sdf ou isso é reparável?

Atualizar

Eu também vi o dmesg e recebo isto:

[    9.289086] md: kicking non-fresh sdf from array!
[    9.289090] md: unbind<sdf>
[    9.296541] md: export_rdev(sdf)
    
por Wukerplank 02.08.2012 / 18:56

1 resposta

1

Bem, eu fui rápido em postar essa pergunta. Acontece que isso pode acontecer quando ocorre uma queda de energia.

Eu simplesmente adicionei novamente a unidade ( mdadm /dev/md0 --add /dev/sdf ) e o mdadm começou a reconstruir a matriz.

    
por 02.08.2012 / 19:09