Temos um único volume 'gvol0' dividido em dois nós (replicado), server1 e server2:
Aqui está a informação de volume higienizado:
Volume Name: gvol0
Type: Replicate
Volume ID: 434237432743274327473247
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1:/var/lib/gvol0/brick1
Brick2: server2:/var/lib/gvol0/brick2
Options Reconfigured:
nfs.rpc-auth-allow: x.x.x.*
nfs.export-volumes: on
nfs.addr-namelookup: off
auth.allow: x.x.x.*
transport.address-family: inet
performance.readdir-ahead: on
nfs.disable: off
Cada bloco é então montado no servidor no seguinte ponto de montagem: / mnt / gluster / gvol0 /
A questão que estamos enfrentando é a seguinte:
No server1, há uma pasta específica no ponto de montagem, vamos chamá-la de "_data" que não exibe nenhuma subpasta, nem arquivos dentro dela. No entanto, é possível definir esses arquivos / pastas e até mesmo editar arquivos e gravar com êxito no disco:
File: ‘_data’
Size: 4096 Blocks: 8 IO Block: 131072 directory
Device: 27h/39d Inode: 10981725783047031592 Links: 35
Access: (2775/drwxrwsr-x) Uid: ( 48/ apache) Gid: (
1024/teamgroup)
Context: system_u:object_r:fusefs_t:s0
Access: 2017-06-13 15:42:18.653306032 +0000
Modify: 2017-06-13 15:42:22.461305492 +0000
Change: 2017-06-13 15:42:22.461305492 +0000
Birth: -
O estranho é que este problema não existe no ponto de montagem no server2 E eu consigo listar com sucesso pastas e arquivos dentro de _data no próprio arquivo em / var / lib / gvol0 / brick1 / _data /
Todos os volumes estão em execução, incluindo os daemons de autocorreção:
Status of volume: gvol0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick server1:/var/lib/gvol0/brick1 49156 0 Y 997
Brick server2:/var/lib/gvol0/brick2 49154 0 Y 1109
NFS Server on localhost 2049 0 Y 17085
Self-heal Daemon on localhost N/A N/A Y 17093
NFS Server on server 1 2049 0 Y 4971
Self-heal Daemon on server 2 N/A N/A Y 4979
Task Status of Volume gvol0
A execução do comando de auto-recuperação não retorna nenhum problema:
Brick server1:/var/lib/gvol0/brick1
Status: Connected
Number of entries: 0
Brick server2:/var/lib/gvol0/brick2
Status: Connected
Number of entries: 0
Alguém já experimentou isso antes e você poderia me dar mais alguma coisa para investigar? Não consigo ver nada óbvio nos arquivos de log em / var / log / glusterfs /...
Obrigado!