Eu queria experimentar a replicação geográfica glusterfs em algumas caixas virtuais no meu computador para uso posterior, distribuídas em vários sites.
Eu instalei o glusterfs 3.6 em servidores ubuntu de 32 bits como este:
add-apt-repository -y ppa:gluster/glusterfs-3.6
apt-get update -qq
apt-get install glusterfs-server -y
Em /etc/hosts
em cada caixa virtual é uma entrada como esta, para que eu possa usar nomes de host:
192.168.1.1 ivymaster.com
192.168.1.2 ivyslave2.com
192.168.1.3 ivyslave1.com
Primeiro eu criei e iniciei um volume no master ( force
para criar no rootfs):
gluster volume create master ivymaster.com:/var/glustermaster/ force
gluster volume start master
Funciona bem. Eu configuro o login root sem senha com ssh-copy-id
e efetuo login manualmente para verificar se esta é a configuração correta e o host é armazenado em known_hosts
.
Não consegui configurar a sincronização em um diretório como descrito em Terminologia de geo-replicação - Compreender o URI . Falha na criação de replicação geográfica com problema de URI.
gluster volume geo-replication master ivyslave2.com:/var/slave2 start
Staging failed on localhost. Please check the log file for more details.
O arquivo de registro contém entradas como Invalid slave name
, Unable to store slave volume name
, Unable to fetch slave or confpath details
.
Quando eu crio um volume em ivyslave2.com
e criarei a replicação geográfica com o uso desse volume, isso funciona:
gluster volume geo-replication master ivyslave2.com::slave2 create push-pem force
Creating geo-replication session between master & ivyslave2.com::slave2 has been successful
Infelizmente, gluster volume geo-replication master ivyslave2.com::slave2 status
sais que o status da replicação está com defeito.
MASTER NODE MASTER VOL MASTER BRICK SLAVE STATUS CHECKPOINT STATUS CRAWL STATUS
--------------------------------------------------------------------------------------------------------------------------------
ivyVirtMaster master /var/glusterfs_master_nv ivyslave2.com::slave2 faulty N/A N/A
Depois de executar este comando, o arquivo de log no mestre contém Using passed config template(/var/lib/glusterd/geo-replication/master_ivyslave2.com_slave2/gsyncd.conf).
, Unable to read gsyncd status file
, Unable to read the statusfile for /var/glusterfs_master_nv brick for master(master), ivyslave2.com::slave2(slave) session
.
O arquivo de log no escravo contém Received status volume req for volume slave2
, tune2fs exited with non-zero exit status
, failed to get inode size
.
Este é o volume no escravo com defeito? Esta questão está relacionada com tune2fs saiu com status de saída diferente de zero ? Como uma replicação geográfica pode ser configurada sem um volume? Há algo errado na configuração de replicação geográfica?
Relação Esta é uma cópia de postagem no stackoverflow .
Tags ssh replication glusterfs tune2fs