QNAP TS 410, está reconstruindo o RAID?

1

O QNAP TS-410 teve um disco com falha no outro dia e entrou no modo de degradação. Então eu comprei um novo disco. Os antigos discos eram da Seagate, mas eu comprei um Western Digital agora que ele aprovou pela QNAP em seu banco de dados de drives suportados, é do mesmo tamanho, então não deveria importar, certo? Então agora eu tenho 3 seagate e 1 wd. Eu trocava os discos novos e antigos e o log do sistema dizia

[RAID5 Disk Volume: Drive 1 2 3 4] Start rebuilding

mas não consigo ver nenhuma indicação na interface da web de que a reconstrução está acontecendo, não há barra de progresso em nenhum lugar, mas a luz na frente da unidade está piscando em vermelho / verde, indicando que está sendo reconstruída. Isso é normal ou há algo estranho acontecendo? Existe alguma maneira que eu possa verificar com a linha de comando através do ssh que a reconstrução está acontecendo?

Também no Painel de Controle - > Gerenciador de armazenamento - > Gerenciamento de volume (na interface da Web QNAP, não no painel de controle do Windows) a nova unidade possui um "erro de leitura / gravação de disco" sob o status, mas as informações da SMART são boas.

Eu tenho mexido nisso há algum tempo e tentei fazer uma varredura na nova unidade, que levou cerca de um dia para terminar e depois disso o status foi para Pronto, mas ainda não há indicação de que a reconstrução de RAID estava acontecendo (exceto para esta entrada de log). Eu reiniciei o QNAP e a nova unidade recebeu o status "Disk read / write error" novamente e o log disse novamente que estava reconstruindo o RAID.

A barra superior da interface da web tem um botão mostrando os processos em segundo plano, mas não há nada mostrado lá, portanto, a reconstrução não é um processo em segundo plano.

Se eu for para o Gerenciador de armazenamento - > Gerenciamento de RAID e selecione o RAID, em seguida, o botão Ação fica acinzentado, portanto, não consigo executar nenhuma ação no RAID, acho que isso acontece porque está no modo degradado e montado como somente leitura.

Então estou confuso, o RAID está sendo reconstruído ou não é? E se não estiver sendo reconstruído, há alguma maneira de forçar a reconstrução? Ou isso não é uma boa ideia?

Esta QNAP tem firmware 4.1.1 Build 20140927 se isso importa.

cat /proc/mdstat me fornece a seguinte saída:

Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md0 : active (read-only) raid5 sda3[0] sdc3[2] sdb3[1]
             5855836800 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

md4 : active raid1 sdd2[2](F) sdc2[3](S) sdb2[1] sda2[0]
             530048 blocks [2/2] [UU]

md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]
             458880 blocks [4/4] [UUUU]
             bitmap: 0/57 pages [0KB], 4KB chunk

md9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
             530048 blocks [4/4] [UUUU]
             bitmap: 4/65 pages [16KB], 4KB chunk

unused devices: <none>

Como pode ser visto em md0, a última unidade não está na matriz RAID (UUU_ o último sublinhado deve ser U se a unidade estiver no RAID até onde entender.

    
por ojs 25.06.2015 / 13:54

2 respostas

1

Bem, cat /proc/mdstat mostra se o RAID está sendo reconstruído e não foi reconstruído no meu caso.

O que estava errado é que o RAID entrou em modo degradado e os discos eram somente de leitura, então não havia nada que o software pudesse fazer para adicionar outro disco ao RAID e começar a reconstruí-lo.

O que eu fiz foi forçar o RAID a fazer ressincronização e, em seguida, adicionar manualmente o novo disco que substituiu o disco em ruínas.

Os comandos usados foram:

mdadm --readwrite /dev/md0

mdadm --add /dev/md0 /dev/sdd1

O comando anterior colocou o RAID de volta no modo de leitura / gravação e o último comando adicionou a unidade ausente que iniciou a reconstrução do RAID (e isso pode ser visto em /proc/mdstat ).

    
por 28.06.2015 / 21:04
1

mdadm --misc --detail /dev/md0 mostrar-lhe-á o estado e o progresso da reconstrução

Por exemplo,

# mdadm --misc --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Tue Sep 28 21:28:33 2010
     Raid Level : raid5
     Array Size : 4390708800 (4187.31 GiB 4496.09 GB)
  Used Dev Size : 1463569600 (1395.77 GiB 1498.70 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Jan 21 10:26:49 2017
          State : clean, degraded, recovering
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

 Rebuild Status : 55% complete

           UUID : 454eaf79:0744a748:319e242f:5ff1ef4c
         Events : 0.7528612

    Number   Major   Minor   RaidDevice State
       0       8       35        0      active sync   /dev/sdc3
       4       8        3        1      spare rebuilding   /dev/sda3
       2       8       51        2      active sync   /dev/sdd3
       3       8       19        3      active sync   /dev/sdb3
    
por 21.01.2017 / 11:34

Tags