Bem, você perdeu um disco que era membro de raidz1-0
. E após a reinicialização, os dispositivos /dev/sd[a-m]
foram renomeados, como Michael Hampton já mencionou.
O ZFS é inteligente o suficiente para não confiar nos nomes /dev/sdx
e pode colocar os pools juntos com base nos metadados do parâmetro.
Nesse ponto, seu raidz1-0
foi degradado devido à falha na unidade, que costumava ser /dev/sdb
antes de você reinicializar o servidor. Após a reinicialização, o disco com falha leva à renomeação dos discos e o disco que pertence a raidz1-2
se tornou /dev/sdb
. Como o ZFS é inteligente o suficiente, ele não se preocupou e apenas colocou os pools juntos corretamente.
Neste ponto, você deve ter substituído o disco com falha e redimensionar o raidz1-0
pool.
Em vez disso, você degradou seu segundo pool raidz1-2
removendo o disco saudável /dev/sdb
, que realmente pertence a raidz1-2
e o adicionou a raidz1-0
, resultando em resilvering.
Você deve substituir o disco com falha e iniciar o resilvering em raidz1-2
. Os discos serão muito provavelmente renomeados novamente após a reinicialização.
Para identificar o disco com falha, faça o tráfego em todos os discos ou volumes e veja qual LED de disco não está piscando quando você está na frente do seu servidor. Não se esqueça de fazer tráfego no seu disco de partição raiz.
Alguns fornecedores de hardware possuem ferramentas ou fornecem uma maneira mais elegante de identificar o slot no qual o disco com falha está.