O que aconteceu é que sua matriz RAID se desfez. Com base na saída fragmentária que você forneceu, suspeito que /dev/sdb1
sofreu uma falha transitória (provavelmente um soluço do sistema USB do Pi) e foi marcado como com falha. Quando voltou on-line, o subsistema md
do Linux o viu como um novo volume RAID que não pertencia a nenhuma matriz conhecida e o configurou como /dev/md127
.
Quando você executou sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1
, teve sorte: ele falhou. Executar mdadm --create
é quase nunca a solução para um problema de RAID. É muito mais provável que você destrua seus dados do que recuperá-los.
Neste ponto, sua melhor opção é provavelmente destruir a matriz /dev/md127
e adicionar novamente /dev/sdb1
a /dev/md0
.
- Verifique se
/dev/md0
é realmente a cópia ativa de seus dados. Inspecione a saída demount
para verificar se ela está montada em/media/nas
e executels /media/nas
para garantir que seus dados estejam lá. - Remova
/dev/sdb1
de/dev/md127
:mdadm /dev/md127 --fail /dev/sdb1
, seguido pormdadm /dev/md127 --remove /dev/sdb1
. - Faça com que
/dev/sdb1
não pareça mais um membro RAID:wipefs -a /dev/sdb1
. - Coloque de volta em
/dev/md0
:mdadm /dev/md0 --add /dev/sdb1
. - Deixe o computador reconstruir a matriz, copiando tudo de
/dev/sda1
.
Para evitar que isso aconteça no futuro, configure entradas descrevendo sua matriz em /etc/mdadm/mdadm.conf
. Se uma unidade cair temporariamente da matriz, mdadm
a verá no arquivo de configuração e ficará lá esperando que você execute a etapa (4).
Se a sua configuração tiver o hábito de produzir falhas temporárias, considere adicionar um bitmap de intenção de gravação ao seu array: mdadm --grow /dev/md0 --bitmap=internal
. Isso reduzirá a velocidade das gravações, já que o bitmap precisa ser atualizado, mas acelerará muito a recuperação, pois apenas as alterações precisam ser copiadas de um disco para o outro. Se você adicionar um bitmap de intenção de gravação, colocará discos com falhas temporárias de volta na matriz com --re-add
em vez de --add
.