O meu servidor está torrado?

2

Ontem à noite recebi um e-mail do mdadm sobre a possível falha de duas unidades na minha matriz. O RAID Array foi configurado como um RAID5 de drive de 2TB com um hot spare. Esse sistema é realmente frito? O hot spare pegou alguma coisa ou as duas unidades falharam de uma só vez? Uma unidade falhou, começou a reconstruir na peça sobressalente e causou outra falha na unidade? Sou relativamente novo no trabalho com invasões, e esse sistema é um que herdei de um funcionário anterior, por isso não tenho certeza de quais são as etapas de solução de problemas adequadas. Qualquer ajuda seria muito apreciada.

Saída de cat / proc / mdstat:

sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid5 sdc[4](F) sdd[5](F) sda[6](S) sdb[0] sde[3]
      5860543488 blocks level 5, 64k chunk, algorithm 2 [4/2] [U__U]

Saída do mdadm --detail:

#sudo mdadm --detail /dev/md0

/dev/md0:
        Version : 0.90
  Creation Time : Mon Jun 21 13:54:13 2010
     Raid Level : raid5
     Array Size : 5860543488 (5589.05 GiB 6001.20 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 4
  Total Devices : 5
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Apr 29 10:52:27 2013
          State : clean, FAILED
 Active Devices : 2
Working Devices : 3
 Failed Devices : 2
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 2874db80:a0f02d66:999df3c7:ff8f8e6e (local to host bigkahuna)
         Events : 0.10984

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       0        0        1      removed
       2       0        0        2      removed
       3       8       64        3      active sync   /dev/sde

       4       8       32        -      faulty spare   /dev/sdc
       5       8       48        -      faulty spare   /dev/sdd
       6       8        0        -      spare   /dev/sda
    
por Zielak 29.04.2013 / 19:16

1 resposta

1

Se não houver erros de smartctl nas unidades nos logs ou no dmesg. Você pode tentar remontar o RAID:

mdadm --assemble /dev/md0 --scan --force
    
por 29.04.2013 / 19:41