Relatório do ZFS (no FreeBSD e Linux via ZoL)

5

Como um usuário de mdadm há muito tempo, estava passando por um erro de disco e lembrei-me de que configurei um relatório de Auto Mail para o mdadm em erros de disco.

Portanto, eu só tive que inserir meu endereço de e-mail dentro de /etc/mdadm/mdadm.conf

MAILADDR [email protected]

Mas eu realmente senti falta disso no FreeBSD. E como meu ZFS RAID6 agora está em execução há mais de meio ano, pensei no que aconteceria se um disco falhasse?

Eu nunca configurei nenhum endereço de email externo. Existe uma maneira fácil de realizar e testar isso?

Como no mdadm:

sudo mdadm –monitor –scan –test

E como eu faria isso no Linux com o ZoL (ZFS no Linux)?

EDIT: Desculpe, eu quis dizer Relatórios AUTOMATIZADOS. não agendado.

Eu sei que eu poderia ter criado um script e analisar o zpool status -X a cada minuto. mas acho que essa não é uma abordagem muito elegante de realizar o problema do relatório. Seria melhor ser notificado instantaneamente sobre uma falha no disco (como mdadm)

EDIT [2]: Obrigado por seus conselhos, mas não estou preso com alguns problemas de script, alguém poderia me ajudar com o meu problema de loop em / bin / sh aqui - > PASTEBIN

EDIT [3]: Tenho o meu problema de loop. :) (atualização em PASTEBIN )

Mais algum conselho para o meu script?

    
por Daywalker 08.08.2013 / 08:50

2 respostas

3

Execute um script regular (cron) que verifique zpool status -x output. A longo prazo, o projeto ZFS no Linux está trabalhando para isso na forma de um daemon de evento. Os sistemas derivados do Solaris tinham acesso à arquitetura de gerenciamento de falhas.

No que diz respeito a relatórios automatizados, até mesmo soluções comerciais como NexentaStor usam verificações agendadas. Não há nada de errado com isso.

Algo parecido com isto:

[root@mdmarra ~]# zpool status -x
all pools are healthy

Versus algo terrível como:

[root@mdmarra ~]# zpool status -x
  pool: vol1
 state: UNAVAIL
status: One or more devices are faulted in response to IO failures.
action: Make sure the affected devices are connected, then run 'zpool clear'.
   see: http://www.sun.com/msg/ZFS-8000-JQ
 scan: scrub repaired 0 in 1h15m with 0 errors on Sun Jul 28 21:15:10 2013
config:

        NAME          STATE     READ WRITE CKSUM
        vol1          UNAVAIL      0     0     0  insufficient replicas
          mirror-0    DEGRADED     0     0     0
            c1t0d0    UNAVAIL      0     0     0  cannot open
            c2t0d0    ONLINE       0     0     0
          mirror-1    DEGRADED     0     0     0
            c1t1d0    UNAVAIL      0     0     0  cannot open
            c2t1d0    ONLINE       0     0     0
          mirror-2    DEGRADED     0     0     0
            spare-0   UNAVAIL      0     0     0  insufficient replicas
              c1t2d0  UNAVAIL      0     0     0  cannot open
              c2t8d0  UNAVAIL      0     0     0  cannot open
            c2t2d0    ONLINE       0     0     0
          mirror-3    DEGRADED     0     0     0
            c1t3d0    UNAVAIL      0     0     0  cannot open
            c2t3d0    ONLINE       0     0     0
          mirror-4    DEGRADED     0     0     0
            c1t4d0    UNAVAIL      0     0     0  cannot open
            c2t4d0    ONLINE       0     0     0
          mirror-5    UNAVAIL      0     0     0  insufficient replicas
            c1t5d0    UNAVAIL      0     0     0  cannot open
            c2t5d0    FAULTED      0     0     0  too many errors
        cache
          c3t5d0      ONLINE       0     0     0
        spares
          c2t8d0      UNAVAIL   cannot open

errors: No known data errors
    
por 08.08.2013 / 09:04
3

Experimente o zfswatcher , ele funciona muito bem para mim.

    
por 08.08.2013 / 09:14