O pool do ZFS informa um dispositivo ausente, mas não está faltando

1

Estou executando o mais recente Debian 7.7 x86 e ZFS no linux

Depois de mover meu computador para uma sala diferente. Se eu fizer um zpool, recebo este status:

  pool: solaris
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid.  Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using 'zpool replace'.
see: http://zfsonlinux.org/msg/ZFS-8000-4J
scan: none requested
config:

NAME                                            STATE     READ WRITE CKSUM
solaris                                         DEGRADED     0     0     0
  raidz1-0                                      DEGRADED     0     0     0
    11552884637030026506                        UNAVAIL      0     0     0  was /dev/disk/by-id/ata-Hitachi_HDS723020BLA642_MN1221F308BR3D-part1
    ata-Hitachi_HDS723020BLA642_MN1221F308D55D  ONLINE       0     0     0
    ata-Hitachi_HDS723020BLA642_MN1220F30N4JED  ONLINE       0     0     0
    ata-Hitachi_HDS723020BLA642_MN1220F30N4B2D  ONLINE       0     0     0
    ata-Hitachi_HDS723020BLA642_MN1220F30JBJ8D  ONLINE       0     0     0

O disco que diz no indisponível é o / dev / sdb1 Depois de um pouco de investigação, descobri que o ata-Hitachi_HDS723020BLA642_MN1221F308BR3D-part1 é apenas um sorriso para / dev / sdb1, e existe:

lrwxrwxrwx 1 root root 10 Jan  3 14:49 /dev/disk/by-id/ata-Hitachi_HDS723020BLA642_MN1221F308BR3D-part1 -> ../../sdb1

Se eu verificar o status inteligente, como:

# smartctl -H /dev/sdb
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

O disco está lá. Eu posso fazer fdisk nele e tudo mais.

Se eu tentar separar, como:

zpool detach solaris 11552884637030026506
cannot detach 11552884637030026506: only applicable to mirror and replacing vdevs

Eu também tentei com / dev / sdb / dev / sdb1 e o nome longo por-id. O mesmo erro o tempo todo.

Eu não posso substituí-lo ou o que parece ser outra coisa. Eu até tentei desligar o computador e ligá-lo novamente, sem sucesso.

A menos que eu realmente substitua o disco rígido, não vejo nenhuma solução para esse problema.

Idéias?

[update] recusou

# blkid 
/dev/mapper/q-swap_1: UUID="9e611158-5cbe-45d7-9abb-11f3ea6c7c15" TYPE="swap" 
/dev/sda5: UUID="OeR8Fg-sj0s-H8Yb-32oy-8nKP-c7Ga-u3lOAf" TYPE="LVM2_member" 
/dev/sdb1: UUID="a515e58f-1e03-46c7-767a-e8328ac945a1" UUID_SUB="7ceeedea-aaee-77f4-d66d-4be020930684" LABEL="q.heima.net:0" TYPE="linux_raid_member" 
/dev/sdf1: LABEL="solaris" UUID="2024677860951158806" UUID_SUB="9314525646988684217" TYPE="zfs_member" 
/dev/sda1: UUID="6dfd5546-00ca-43e1-bdb7-b8deff84c108" TYPE="ext2" 
/dev/sdd1: LABEL="solaris" UUID="2024677860951158806" UUID_SUB="1776290389972032936" TYPE="zfs_member" 
/dev/sdc1: LABEL="solaris" UUID="2024677860951158806" UUID_SUB="2569788348225190974" TYPE="zfs_member" 
/dev/sde1: LABEL="solaris" UUID="2024677860951158806" UUID_SUB="10515322564962014006" TYPE="zfs_member" 
/dev/mapper/q-root: UUID="07ebd258-840d-4bc2-9540-657074874067" TYPE="ext4" 

Após desabilitar o mdadm e reinicializar, esse problema está de volta Não tenho certeza porque o sdb está marcado como linux_raid_member. Como esclarecer isso?

    
por Trausti Thor 03.01.2015 / 16:59

2 respostas

2

Basta executar um zpool clear solaris e postar o resultado de zpool status -v .

Seria bom saber o hardware envolvido e qual controlador você está usando.

editar

Olhando para a sua saída blkid , você tem restos de um RAID de software anterior do Linux. Você precisará mdadm --zero-superblock /dev/sdb1 para limpar isso.

    
por 03.01.2015 / 17:07
1

Depois de pesquisar na internet e falha de servidor e estouro de pilha por mais de um dia, não encontrando nada. Eu faço essa pergunta, e a resposta aparece nas perguntas relacionadas do lado direito. Então eu encontrei a resposta para esta questão:

Atualizado o Ubuntu, todos os drives em um zpool marcado como indisponível

Por alguma razão, a madame é executada no início e inicia o md0, mesmo que o md0 não contenha nenhum disco (como mostrado nos erros), ele causa esse erro.

Então, um simples

mdadm --stop /dev/md0

Fiz o truque e agora meus discos estão se recuperando. Caso encerrado.

    
por 03.01.2015 / 17:07