glusterfs não consegue ler o arquivo de status do gsyncd

2

Meta

Eu queria experimentar a replicação geográfica glusterfs em algumas caixas virtuais no meu computador para uso posterior, distribuídas em vários sites.

Configuração

Eu instalei o glusterfs 3.6 em servidores ubuntu de 32 bits como este:

add-apt-repository -y ppa:gluster/glusterfs-3.6
apt-get update -qq
apt-get install glusterfs-server -y

Em /etc/hosts em cada caixa virtual é uma entrada como esta, para que eu possa usar nomes de host:

192.168.1.1 ivymaster.com
192.168.1.2 ivyslave2.com
192.168.1.3 ivyslave1.com

Configuração

Primeiro eu criei e iniciei um volume no master ( force para criar no rootfs):

gluster volume create master ivymaster.com:/var/glustermaster/ force
gluster volume start master

Funciona bem. Eu configuro o login root sem senha com ssh-copy-id e efetuo login manualmente para verificar se esta é a configuração correta e o host é armazenado em known_hosts .

Não consegui configurar a sincronização em um diretório como descrito em Terminologia de geo-replicação - Compreender o URI . Falha na criação de replicação geográfica com problema de URI.

gluster volume geo-replication master ivyslave2.com:/var/slave2 start
 Staging failed on localhost. Please check the log file for more details.

Erros depois de criar a replicação com sucesso

O arquivo de registro contém entradas como Invalid slave name , Unable to store slave volume name , Unable to fetch slave or confpath details .

Quando eu crio um volume em ivyslave2.com e criarei a replicação geográfica com o uso desse volume, isso funciona:

 gluster volume geo-replication master ivyslave2.com::slave2 create push-pem force
  Creating geo-replication session between master & ivyslave2.com::slave2 has been successful

Infelizmente, gluster volume geo-replication master ivyslave2.com::slave2 status sais que o status da replicação está com defeito.

MASTER NODE      MASTER VOL    MASTER BRICK                SLAVE                    STATUS    CHECKPOINT STATUS    CRAWL STATUS
--------------------------------------------------------------------------------------------------------------------------------
ivyVirtMaster    master       /var/glusterfs_master_nv        ivyslave2.com::slave2    faulty    N/A                  N/A

Depois de executar este comando, o arquivo de log no mestre contém Using passed config template(/var/lib/glusterd/geo-replication/master_ivyslave2.com_slave2/gsyncd.conf). , Unable to read gsyncd status file , Unable to read the statusfile for /var/glusterfs_master_nv brick for master(master), ivyslave2.com::slave2(slave) session .

Emitir com tune2fs?

O arquivo de log no escravo contém Received status volume req for volume slave2 , tune2fs exited with non-zero exit status , failed to get inode size .

Este é o volume no escravo com defeito? Esta questão está relacionada com tune2fs saiu com status de saída diferente de zero ? Como uma replicação geográfica pode ser configurada sem um volume? Há algo errado na configuração de replicação geográfica?

Relação Esta é uma cópia de postagem no stackoverflow .

    
por Erik Theoboldt 17.04.2015 / 09:54

0 respostas