glusterfs as montagens são desmontadas quando 1 dos 2 tijolos fica offline

1

Eu tenho um caso estranho em que 1 dos 2 tijolos glusterfs replicados ficará offline e levará todos os clientes para baixo com ele. Pelo que entendi, isso não deveria estar acontecendo. Ele deve fazer o failover para o bloco que ainda está online, mas esse não foi o caso. Eu suspeito que isso se deva ao problema de configuração.

Aqui está uma descrição do sistema:

  • 2 servidores gluster em hardware dedicado (gfs0, gfs1)
  • 8 servidores clientes em vms (client1, client2, client3, ..., client8)

Metade dos servidores clientes são montados com gfs0 como o primário, e a outra metade é apontada para gfs1. Cada um dos clientes é montado com a seguinte entrada em / etc / fstab:

/etc/glusterfs/datavol.vol /data glusterfs defaults 0 0

Aqui está o conteúdo de /etc/glusterfs/datavol.vol:

volume datavol-client-0
    type protocol/client
    option transport-type tcp
    option remote-subvolume /data/datavol
    option remote-host gfs0
end-volume

volume datavol-client-1
    type protocol/client
    option transport-type tcp
    option remote-subvolume /data/datavol
    option remote-host gfs1
end-volume

volume datavol-replicate-0
    type cluster/replicate
    subvolumes datavol-client-0 datavol-client-1
end-volume

volume datavol-dht
    type cluster/distribute
    subvolumes datavol-replicate-0
end-volume

volume datavol-write-behind
    type performance/write-behind
    subvolumes datavol-dht
end-volume

volume datavol-read-ahead
    type performance/read-ahead
    subvolumes datavol-write-behind
end-volume

volume datavol-io-cache
    type performance/io-cache
    subvolumes datavol-read-ahead
end-volume

volume datavol-quick-read
    type performance/quick-read
    subvolumes datavol-io-cache
end-volume

volume datavol-md-cache
    type performance/md-cache
    subvolumes datavol-quick-read
end-volume

volume datavol
    type debug/io-stats
    option count-fop-hits on
    option latency-measurement on
    subvolumes datavol-md-cache
end-volume

A configuração acima é a última tentativa de fazer isso se comportar corretamente. Eu também tentei a seguinte entrada em / etc / fstab:

gfs0:/datavol /data glusterfs defaults,backupvolfile-server=gfs1 0 0

Esta foi a entrada para metade dos clientes, enquanto a outra metade teve:

gfs1:/datavol /data glusterfs defaults,backupvolfile-server=gfs0 0 0

Os resultados foram exatamente os mesmos da configuração acima. Ambas as configurações conectam tudo muito bem, elas simplesmente não fazem o failover.

Qualquer ajuda seria apreciada.

    
por Shiquemano 31.10.2013 / 22:18

1 resposta

0

Parece que você tem um bloco 'cluster / distribute' na sua configuração, o que eu acho que faria com que o Gluster pensasse que o volume é distribuído. Tente remover o volume e recriá-lo sem a opção "stripe".

    
por 01.05.2014 / 21:23