Tente:
##enable nfs
gluster volume set volume_name nfs.disable off
## restart volume
gluster volume stop volume_name
gluster volume start volume_name
substituir volume_name
com o nome apropriado para o seu voume
Eu tenho a instalação de 2 Nodes GlusterFS em 2 Redhat 6.7 Servers. (As versões do GlusterFS são ambas 3.7.12) Então o status "Servidor NFS no localhost" em um Servidor mostra "n / a" e Online "N", enquanto está mostrando tudo bem no outro.
[root@webserver1 ~]# gluster volume status gv0
Status of volume: gv0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick gluster1:/glusterfs-data/brick 49152 0 Y 27149
Brick gluster2:/glusterfs-data/brick 49152 0 Y 1677
NFS Server on localhost N/A N/A N N/A
Self-heal Daemon on localhost N/A N/A Y 27176
NFS Server on gluster2 2049 0 Y 1629
Self-heal Daemon on gluster2 N/A N/A Y 1638
Task Status of Volume gv0
------------------------------------------------------------------------------
There are no active volume tasks
Quais serviços devem ser iniciados (ou) o que parece ser perdido aqui, por favor?
Tente:
##enable nfs
gluster volume set volume_name nfs.disable off
## restart volume
gluster volume stop volume_name
gluster volume start volume_name
substituir volume_name
com o nome apropriado para o seu voume
Você precisa reiniciar o rpcbind
após o gluster volume set volume_name nfs.disable off
.
O seu volume será assim:
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick vol01:/tmp/teste 49197 0 Y 4321
Brick vol02:/tmp/teste 49197 0 Y 4619
NFS Server on localhost 2049 0 Y 4341
Self-heal Daemon on localhost N/A N/A Y 4349
NFS Server on ftp02-sp.dcdsr.local N/A N/A N N/A
Self-heal Daemon on ftp02-sp.dcdsr.local N/A N/A Y 4647
Task Status of Volume teste1
------------------------------------------------------------------------------
There are no active volume tasks