Eu tive o mesmo problema no teste Debian com o kernel 4.14 e o módulo zfs 0.7.6. Mas eu acho que esse comportamento é o mesmo em todas as caixas Linux.
Para destruir um pool UNAVAIL
, onde o status é semelhante:
user@system: ~ $ sudo zpool status -xv
pool: icy_tank
state: UNAVAIL
status: One or more devices are faulted in response to IO failures.
action: Make sure the affected devices are connected, then run 'zpool clear'.
see: http://zfsonlinux.org/msg/ZFS-8000-HC
scan: none requested
config:
NAME STATE READ WRITE CKSUM
icy_tank UNAVAIL 0 0 0 insufficient replicas
sdb UNAVAIL 0 0 0
errors: List of errors unavailable: pool I/O is currently suspended
você tem que reiniciar o zed
, o daemon do evento zfs primeiro reiniciando todo o systemd zfs-target
.
sudo systemctl restart zfs.target
Após essa etapa, o pool pode ser limpo.
sudo zpool clear icy_tank
Se o dispositivo (por exemplo, sdb) estiver disponível neste momento e o sdb fizer parte do pool, o zpool iniciará imediatamente uma depuração no dispositivo.
pool: icy_tank
state: ONLINE
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://zfsonlinux.org/msg/ZFS-8000-8A
scan: scrub in progress since Wed Mar 7 20:27:55 2018
316M scanned out of 121G at 9,89M/s, 3h28m to go
0B repaired, 0,26% done
config:
NAME STATE READ WRITE CKSUM
icy_tank ONLINE 0 0 0
sdb ONLINE 0 0 0
errors: 4 data errors, use '-v' for a list