Acabei resolvendo esse problema. Aparentemente, lvm e zfs não tocam muito bem juntos.
- Desligue o gabinete do jbod
- reinicializar a máquina
- zpool status nolonger mostra a unidade.
-
import zpool -d / dev / disk / by-id stor4
pool: stor4 estado: ONLINE scan: scrub reparado 0 em 0h2m com 0 erros em qua Abr 6 13:15:36 2016 config:
NAME STATE READ WRITE CKSUM stor4 ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134LLA13H ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC130YUZ78J ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC130ADRPT2 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133YHCH74 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134HF0CN1 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133CL339U ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133YHC7A8 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134PDTNA9 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134HF0TF5 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134HF01HR ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC132RDTE7E ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC134PDT71R ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC136HXYZS3 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC136PT6DE9 ONLINE 0 0 0 ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC133FE5JND ONLINE 0 0 0 spares ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC131FYE89J AVAIL
O array está online e os dados estão intactos. Parece que o lvm que está gerenciando / root estava pisando no zfs e corrigindo uma das letras de unidade do zfs para seu volume físico. Eu deveria notar que zpool export teria erro porque o status era unavail. Usar o ID deve impedir que esse tipo de coisa aconteça no futuro.
Espero que isso ajude alguém que enfrenta o mesmo problema.