Eventualmente, encontrei uma solução para a bagunça:
Eu vi mensagens status
diferentes dependendo de quais discos eu levei para trazer o pool novamente.
Fiz várias tentativas para importar o conjunto em um estado degradado com várias combinações de quatro discos correspondentes e, no final, obtive isso:
NAME STATE READ WRITE CKSUM
zdata DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
dm-name-n8_2 ONLINE 0 0 0 (resilvering)
11141007683912581709 UNAVAIL 0 0 0 was /dev/disk/by-id/dm-name-n8_3
mirror-1 DEGRADED 0 0 0
16620393607066428577 FAULTED 0 0 0 was /dev/disk/by-id/dm-name-n8_0
dm-name-n8_0 ONLINE 0 0 0
mirror-2 DEGRADED 0 0 0
replacing-0 DEGRADED 85 0 0
1051730541091272780 FAULTED 0 0 0 was /dev/disk/by-id/dm-name-n8_4
dm-name-n8_6 ONLINE 0 0 85 (resilvering)
dm-name-n8_4 ONLINE 0 0 0 (resilvering)
mirror-3 DEGRADED 0 0 0
dm-name-n8_5 ONLINE 0 0 0
13833275275194605312 FAULTED 0 0 0 was /dev/disk/by-id/dm-name-n8_6
que me permitiu copiar quase todos os dados dos discos danificados. A perda foi de aproximadamente 0,1% (134 de > 70000) arquivos.
Pelo que entendi, o zfs armazena dados de configuração em cada dispositivo desse pool e os mantém sincronizados. Talvez a falta de energia danificou isso, ou os discos morrendo?
De qualquer forma, estou feliz de novo. Obrigado por ler e ajudar!