Eu tenho dois nós que possuem um volume de gluster replicado. Em seguida, um terceiro nó que montou esse volume usando a seguinte string de montagem em / etc / fstab:
node1,node2:/gv0 /glustermount glusterfs defaults 0 0
Eu também tentei adicionar um ou ambos os servidores como servidores volfile de backup como este:
node1,node2:/gv0 /glustershare glusterfs defaults,backup-volfile-servers=node2:/gv0:node1:/gv0 0 0
O volume é montado corretamente e eu posso listar o conteúdo do node3. Minha expectativa é que eu possa reinicializar o node1 ou node2 e, desde que eu faça um de cada vez e permita tempo suficiente para que ele chegue até o fim e esteja totalmente disponível, nunca perderei o acesso do node3.
Se eu reiniciar o node1, posso continuar listando o conteúdo bem. Uma vez que o node1 tenha sido totalmente reinicializado e esteja disponível (esperei muito tempo e verifiquei que ele está listado on-line na resposta "gluster volume status" apenas para ter certeza), eu reinicio o node2. Eu imediatamente perco a montaria. Não importa quanto tempo eu espere, isso nunca volta. Eu posso, no entanto, imediatamente ou depois remontar "mount / glustermount" e montá-lo novamente com apenas node1 disponível (enquanto o node2 está desligado ou ainda reinicializado).
Há algo errado com minha configuração ou esse não é o comportamento esperado? Eu pensei que a maior vantagem de usar o cliente de fusíveis sobre o NFS foi que você obteve o failover automático às custas de algum desempenho.
No log do gluster no node3 quando eu reinicio o nó 1, vejo entradas esperadas como:
failed to connect with remote-host: node1 (No data available)
connecting to next volfile server node2
Então, quando eu reiniciar o node2, eu espero ver entradas semelhantes ao contrário, mas vejo:
Exhuasted all volfile servers
Unmounting '/glustermount'
Então, por que ele não viu o node1 como um servidor volfile disponível, mas se eu executar novamente o comando mount, ele será montado corretamente apenas com o node1 disponível?