Servidor NFS que não está sendo compartilhado após a reinicialização

5

Eu tenho dois contêineres Linode. O Box A é o nosso servidor web de uso geral. Ocasionalmente, precisa acessar o Box B, que é configurado como um servidor NFS.

Quando a Caixa B é reinicializada, a Caixa A não consegue acessar nenhum compartilhamento NFS, não importa o que eu faça. Após várias horas de solução de problemas, finalmente consegui reduzi-lo a uma única correção de etapa.

Após a reinicialização da Caixa B:

$ sudo service nfs restart

Estas são ambas as caixas do CentOS 6.8, atualizadas. Pacotes relacionados a NFS foram todos instalados via yum, eu acredito. Eu tive alguns problemas para arrumar tudo; não foi um processo tranquilo, mas depois de reiniciar o (s) serviço (s) nfs, tudo funciona bem.

Se eu

$ sudo service --status-all

não há diferença antes e depois da emissão do reinício. Talvez seja um problema de tempo? Mas eu não sei como começar a incomodar isso. O que posso fazer?

Outras coisas importantes:

  • Estou usando o autofs para montar automaticamente o compartilhamento sob demanda do Box A, mas o compartilhamento não é montado manualmente

  • Eu gasto meus dias em desktops e servidores Windows e Mac, mas há muitos anos venho executando sites no Linux. Sou proficiente nas coisas que preciso fazer, mas não é minha área de conforto e passo muito tempo pesquisando como fazer coisas novas.

Eu nem sei onde verificar. Eu não vi nada óbvio nos logs, mas me diga o que procurar e eu postarei.

Atualizar

Na caixa B:

 [shorowitz@BoxB ~]$ sudo chkconfig --list nfs
 nfs                0:off   1:off   2:on    3:on    4:on    5:on    6:off
 [shorowitz@BoxB ~]$ sudo chkconfig --list nfslock
 nfslock            0:off   1:off   2:on    3:on    4:on    5:on    6:off

Atualização 2

Após uma nova reinicialização do BoxB, executando

$ sudo showmount -e BoxB

do BoxA mostra os pontos de montagem esperados, mas não consigo montá-los. Simplesmente reiniciando o nfs no BoxB

 $ sudo service nfs restart
 Shutting down NFS daemon:                                  [  OK  ]
 Shutting down NFS mountd:                                  [  OK  ]
 Shutting down NFS services:                                [  OK  ]
 Shutting down RPC idmapd:                                  [  OK  ]
 FATAL: Module nfsd not found.
 FATAL: Error running install command for nfsd
 Starting NFS services:                                     [  OK  ]
 Starting NFS mountd:                                       [  OK  ]
 Starting NFS daemon:                                       [  OK  ]
 Starting RPC idmapd:                                       [  OK  ]

E as montagens estão imediatamente disponíveis no BoxA. Esses erros fatais aparecem em reinicializações subsequentes, bem como quando o NFS já está funcionando, então não sei o quão relevantes eles são (eu pensei que já os tinha postado).

Informações Adicionais do Log

Eu emiti o comando reboot às 9:29 em 15 de novembro

 grep -i "nfs" /var/log/message*
 messages:Nov 15 09:29:08 BoxB kernel: nfsd: last server has exited, flushing export cache
 messages:Nov 15 09:29:54 BoxB kernel: RPC: Registered tcp NFSv4.1 backchannel transport module.
 messages:Nov 15 09:29:54 BoxB kernel: FS-Cache: Netfs 'nfs' registered for caching
 messages:Nov 15 09:29:54 BoxB kernel: NFS: Registering the id_resolver key type
 messages:Nov 15 09:29:54 BoxB kernel: nfs4filelayout_init: NFSv4 File Layout Driver Registering...
 messages:Nov 15 09:29:54 BoxB kernel: Installing knfsd (copyright (C) 1996 [email protected]).
 messages:Nov 15 09:29:54 BoxB kernel: xenfs: not registering filesystem on non-xen platform
 messages:Nov 15 09:29:54 BoxB rpc.mountd[2740]: NFS v4 mounts will be disabled unless fsid=0
 messages:Nov 15 09:29:54 BoxB kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
 messages:Nov 15 09:29:54 BoxB kernel: NFSD: starting 90-second grace period (net ****************)
 messages:Nov 15 09:33:39 BoxB kernel: nfsd: last server has exited, flushing export cache
 messages:Nov 15 09:33:40 BoxB kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
 messages:Nov 15 09:33:40 BoxB kernel: NFSD: starting 90-second grace period (net ****************)

Atualização 3:

BoxB

 [shorowitz@BoxB ~]$ sudo chkconfig --list | egrep "nfs|rpc"
 nfs                0:off   1:off   2:on    3:on    4:on    5:on    6:off
 nfslock            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcbind            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcgssd            0:off   1:off   2:off   3:on    4:on    5:on    6:off
 rpcsvcgssd         0:off   1:off   2:off   3:off   4:off   5:off   6:off

 [shorowitz@BoxB ~]$ sudo iptables --list -n -v
 Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
     0     0 ACCEPT     all  --  lo     *       0.0.0.0/0            0.0.0.0/0           
     0     0 REJECT     all  --  !lo    *       127.0.0.0/8          0.0.0.0/0           reject-with icmp-port-unreachable 
    18   710 ACCEPT     icmp --  *      *       0.0.0.0/0            0.0.0.0/0           state NEW icmp type 8 
   471 26200 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:22 state NEW 
  204K  393M ACCEPT     all  --  *      *       {BoxA IP}            0.0.0.0/0           
  6721  754K ACCEPT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           state RELATED,ESTABLISHED 
  2859  168K LOG        all  --  *      *       0.0.0.0/0            0.0.0.0/0           limit: avg 5/min burst 5 LOG flags 0 level 7 prefix 'iptables_INPUT_denied: ' 
  9229  628K REJECT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           reject-with icmp-port-unreachable 

 Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
     0     0 LOG        all  --  *      *       0.0.0.0/0            0.0.0.0/0           limit: avg 5/min burst 5 LOG flags 0 level 7 prefix 'iptables_FORWARD_denied: ' 
     0     0 REJECT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           reject-with icmp-port-unreachable 

 Chain OUTPUT (policy ACCEPT 278K packets, 8386M bytes)
  pkts bytes target     prot opt in     out     source               destination        

 [shorowitz@BoxB ~]$ sudo rpcinfo -p
program vers proto   port  service
 100000    4   tcp    111  portmapper
 100000    3   tcp    111  portmapper
 100000    2   tcp    111  portmapper
 100000    4   udp    111  portmapper
 100000    3   udp    111  portmapper
 100000    2   udp    111  portmapper
 100024    1   udp  38148  status
 100024    1   tcp  45681  status
 100005    1   udp  37846  mountd
 100005    1   tcp  59259  mountd
 100005    2   udp  59934  mountd
 100005    2   tcp  42645  mountd
 100005    3   udp  33867  mountd
 100005    3   tcp  41823  mountd
 100003    2   tcp   2049  nfs
 100003    3   tcp   2049  nfs
 100003    4   tcp   2049  nfs
 100227    2   tcp   2049  nfs_acl
 100227    3   tcp   2049  nfs_acl
 100003    2   udp   2049  nfs
 100003    3   udp   2049  nfs
 100003    4   udp   2049  nfs
 100227    2   udp   2049  nfs_acl
 100227    3   udp   2049  nfs_acl
 100021    1   udp  37287  nlockmgr
 100021    3   udp  37287  nlockmgr
 100021    4   udp  37287  nlockmgr
 100021    1   tcp  37579  nlockmgr
 100021    3   tcp  37579  nlockmgr
 100021    4   tcp  37579  nlockmgr

Isso não retorna nada:

 grep -v "^#" /etc/sysconfig/nfs

BoxA

 $ chkconfig --list | egrep "nfs|rpc"
 nfs                0:off   1:off   2:on    3:on    4:on    5:on    6:off
 nfslock            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcbind            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcgssd            0:off   1:off   2:off   3:on    4:on    5:on    6:off
 rpcsvcgssd         0:off   1:off   2:off   3:off   4:off   5:off   6:off

 $ iptables --list -n -v
 Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
  390K   58M ACCEPT     all  --  lo     *       0.0.0.0/0            0.0.0.0/0           
     0     0 REJECT     all  --  *      *       0.0.0.0/0            127.0.0.0/8         reject-with icmp-port-unreachable 
  990K 7850M ACCEPT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           state RELATED,ESTABLISHED 
     0     0 DROP       all  --  *      *       43.255.188.145       0.0.0.0/0           
     8   388 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:587 
 11864  608K ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:25 
     1    40 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:636 
  4545  238K ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:80 
  9759  553K ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:443 
    24   960 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:8080 
   320 19152 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           state NEW tcp dpt:22 
    85  5681 ACCEPT     icmp --  *      *       0.0.0.0/0            0.0.0.0/0           
  3254  194K LOG        all  --  *      *       0.0.0.0/0            0.0.0.0/0           limit: avg 5/min burst 5 LOG flags 0 level 7 prefix 'iptables denied: ' 
  3634  227K DROP       all  --  *      *       0.0.0.0/0            0.0.0.0/0           

 Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
     0     0 DROP       all  --  *      *       0.0.0.0/0            0.0.0.0/0           

 Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
 1360K 1907M ACCEPT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           

 $ rpcinfo -p
program vers proto   port  service
 100000    4   tcp    111  portmapper
 100000    3   tcp    111  portmapper
 100000    2   tcp    111  portmapper
 100000    4   udp    111  portmapper
 100000    3   udp    111  portmapper
 100000    2   udp    111  portmapper
 100024    1   udp  55882  status
 100024    1   tcp  58283  status
 100011    1   udp    875  rquotad
 100011    2   udp    875  rquotad
 100011    1   tcp    875  rquotad
 100011    2   tcp    875  rquotad
 100005    1   udp  43136  mountd
 100005    1   tcp  55047  mountd
 100005    2   udp  51117  mountd
 100005    2   tcp  42791  mountd
 100005    3   udp  44511  mountd
 100005    3   tcp  46535  mountd
 100003    2   tcp   2049  nfs
 100003    3   tcp   2049  nfs
 100003    4   tcp   2049  nfs
 100227    2   tcp   2049  nfs_acl
 100227    3   tcp   2049  nfs_acl
 100003    2   udp   2049  nfs
 100003    3   udp   2049  nfs
 100003    4   udp   2049  nfs
 100227    2   udp   2049  nfs_acl
 100227    3   udp   2049  nfs_acl
 100021    1   udp  43509  nlockmgr
 100021    3   udp  43509  nlockmgr
 100021    4   udp  43509  nlockmgr
 100021    1   tcp  38725  nlockmgr
 100021    3   tcp  38725  nlockmgr
 100021    4   tcp  38725  nlockmgr

 $ mount | grep nfs
 nfsd on /proc/fs/nfsd type nfsd (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

Atualização 14 de novembro

 BoxA:

 $ cat /etc/auto.master.d/nfs
 xdata  -rw boxb:/srv/nfs/xdata
 xbackup    -rw boxb:/srv/nfs/xbackup
 zbackups   -rw boxb:/srv/nfs/zbackups

 $ mount | grep nfs
 mount |grep nfs
 nfsd on /proc/fs/nfsd type nfsd (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,vers=4,addr={boxb ip},clientaddr={boxa ip})
    
por samh 15.11.2016 / 15:40

3 respostas

1

Você pode atualizar sua pergunta com mais informações?
No servidor NFS, execute

chkconfig --list | egrep "nfs|rpc"
iptables --list -n -v
rpcinfo -p

O próximo não deve retornar nada se as configurações do servidor nfs não forem personalizadas.

grep -v "^#" /etc/sysconfig/nfs

No entanto, se você estiver executando o iptables, ele deverá ser personalizado. Veja aqui link

No seu cliente executado,

chkconfig --list | egrep "nfs|rpc"
iptables --list -n -v
rpcinfo -p
mount | grep nfs

Se você estiver executando o NFSV2 ou o NFSV3, também será necessário executar o nfslock no cliente

link

O que parece estranho em sua saída ao iniciar o NFS - está abaixo da linha

FATAL: Module nfsd not found.
 FATAL: Error running install command for nfsd

E eu acabei de perceber uma coisa - já que você está rodando no openvz - o link abaixo se aplica à sua situação. Veja se isso ajuda

link

Editar 1: Eu fiz testes hoje em contêineres openvz.
Mensagem que você vê

FATAL: Module nfsd not found.
FATAL: Error running install command for nfsd

é inofensivo. É descrito aqui link

Não consegui reproduzir o seu problema. Após a reinicialização do servidor nfs, o cliente nfs ainda era capaz de procurar arquivos, criar novos arquivos, excluir arquivos do compartilhamento nfs.

Agora você pode postar sua configuração de montagem automática e também a saída de

mount|grep nfs

Na caixa A, que você já fez. Mas você fez isso enquanto o sistema de arquivos montado automaticamente estava desmontado. Então, agora no Box A cd para auto montado dir e, em seguida, execute o comando acima. Isso fornecerá informações sobre quais opções foram usadas durante a montagem.

Da próxima vez que você reiniciar a sua Caixa B e você tiver este problema de automount presente - a partir do Site A, execute este comando

netstat -anp|grep ipofB

Isso dará informações sobre quais portas estão envolvidas.
Neste tipo de situações também é bom coletar tcpdumps em B e A.
Eu costumo pensar que não há nada errado com a sua configuração - mas algo estranho está acontecendo com o iptables no vzhosts. Não nos contêineres, mas nos hosts.

O que você também pode tentar fazer é instalar o nmap em seu host A e, no momento do problema - varrer seu host B para ver quais portas estão abertas do ponto de vista de A (alguns podem sugerir netstat ou ss , mas neste caso há também firewall de host openvz na frente do container e não sabemos se eles estão bloqueando algo ou não)

Editar 2 (25 de novembro) Algo é muito estranho com suas opções de montagem

Compare sua saída

$ mount | grep nfs
 mount |grep nfs
 nfsd on /proc/fs/nfsd type nfsd (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,vers=4,addr={boxb ip},clientaddr={boxa ip}) 

Para o meu abaixo. Aqui está o meu /etc/auto.misc. A linha 6 é o padrão. Linha 16 eu adicionei

[root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc
6:cd            -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs          -fstype=nfs             192.168.0.54:/nfs_export

Então, quando eu cd para / misc / nfs - meu compartilhamento é montado. Mas olhe para as opções padrão na linha 12.

[root@vznfsclient ~]# mount|egrep -n "nfs|auto"
4:nfsd on /proc/fs/nfsd type nfsd (rw,relatime)
5:sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
10:/etc/auto.misc on /misc type autofs (rw,relatime,fd=6,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect)
11:-hosts on /net type autofs (rw,relatime,fd=12,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect)
12:192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=42089,mountproto=udp,local_lock=none,addr=192.168.0.54) 

Primeiro é o nfsv3 e está usando o udp. Ok udp podemos mudar para tcp alterando /etc/auto.misc para este

[root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc
6:cd            -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs          -fstype=nfs,proto=tcp   192.168.0.54:/nfs_export

E as opções de montagem serão alteradas para

192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=45378,mountproto=tcp,local_lock=none,addr=192.168.0.54)

Quando eu tento usar em /etc/auto.misc -fstype=nfs4 - eu não consigo nem gravar em cd / misc / nfs, o que faz sentido já que por openvz nfsv4 não é suportado dentro de container link

Observe que você tem em suas opções de montagem sloppy e simples rw . Isso basicamente significa que

  1. As opções passadas para mount.nfs não estão exatamente corretas, por isso está tentando contornar isso. Leia man mount.nfs e procure por / sloppy.
  2. Suponho que esteja tentando usar o nfsv4. Nem sei como funciona se não for suportado dentro do contêiner.

Sugiro alterar seus mapas de montagem automática para corrigir a sintaxe (consulte meu exemplo) ou veja exemplos aqui link

e teste. Acabei de executar testes com o autofs nesses mesmos 2 contêineres executados em dois hosts openvz diferentes - e após a reinicialização do servidor nfs - o cliente ainda está feliz.

Editar 3 Eu não consigo nem reproduzir seu cenário. Eu mudei meu /etc/auto.misc para abaixo, que é basicamente o que você tem

[root@vznfsclient nfs]# egrep -nv "^#|^$" /etc/auto.misc
6:cd            -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs          -rw                     192.168.0.54:/nfs_export

E após a reinicialização e cd / misc / nfs eu ainda tenho isso

[root@vznfsclient nfs]# mount|grep nfs
nfsd on /proc/fs/nfsd type nfsd (rw,relatime)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=46453,mountproto=udp,local_lock=none,addr=192.168.0.54)

Então, no meu caso, está tentando usar o nfsv3 corretamente.

A única coisa que resta fazer agora é

Ative a depuração no /etc/autofs.conf

[root@vznfsclient nfs]# grep -i debug /etc/autofs.conf|grep -v "^#"
    logging = debug

Ative a gravidade de depuração a ser enviada para /var/log/messages no /etc/rsyslog.conf . Mude isto

[root@vznfsclient nfs]# grep info /etc/rsyslog.conf
*.info;mail.none;authpriv.none;cron.none                -/var/log/messages

Para isso (.info para .debug)

[root@vznfsclient nfs]# grep debug /etc/rsyslog.conf
*.debug;mail.none;authpriv.none;cron.none                -/var/log/messages

Reinicie o autofs e o rsyslog e, em seguida, ao alterar para a localização montada automaticamente, você deverá ver a saída de depuração no /var/log/messages

Aqui está a saída do meu sistema de teste

Nov 25 03:06:00 vznfsclient automount[583]: attempting to mount entry /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): looking up nfs
Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): nfs -> -rw#011#011#011192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(sun): expanded entry: -rw#011#011#011192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(sun): gathered options: rw
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(sun): dequote("192.168.0.54:/nfs_export") -> 192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(sun): core of entry: options=rw, loc=192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: sun_mount: parse(sun): mounting root /misc, mountpoint nfs, what 192.168.0.54:/nfs_export, fstype nfs, options rw
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): root=/misc name=nfs what=192.168.0.54:/nfs_export, fstype=nfs, options=rw
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): nfs options="rw", nobind=0, nosymlink=0, ro=0
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with host 192.168.0.54(192.168.0.54) proto 6 version 0x40
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with host 192.168.0.54(192.168.0.54) proto 6 version 0x70
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000366
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: host 192.168.0.54 cost 365 weight 0
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with host 192.168.0.54(192.168.0.54) proto 17 version 0x70
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000507
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v2 rpc ping time: 0.000692
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: host 192.168.0.54 cost 599 weight 0
Nov 25 03:06:00 vznfsclient automount[583]: prune_host_list: selected subset of hosts that support NFS3 over TCP
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mkdir_path /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mount -t nfs -s -o rw 192.168.0.54:/nfs_export /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: spawn_mount: mtab link detected, passing -n to mount
Nov 25 03:06:00 vznfsclient automount[583]: mount(nfs): mounted 192.168.0.54:/nfs_export on /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: ioctl_send_ready: token = 28
Nov 25 03:06:00 vznfsclient automount[583]: mounted /misc/nfs
    
por 23.11.2016 / 04:10
0

Algumas coisas ... O CentOS 6.5 não está atualizado. Vale a pena planejar trazer seu sistema operacional para a versão atual (6.8 neste momento).

Experimente o comando ntsysv em vez do chkconfig . Você pode garantir que o daemon do servidor NFS esteja ativado (marcado) na inicialização.

Ative o serviço netfs , pois isso é útil para garantir que os clientes do sistema de arquivos de rede montem os sistemas de arquivos necessários na inicialização.

Boa sorte!

    
por 20.11.2016 / 20:00
0

Em primeiro lugar, o NFS geralmente não é confiável para compartilhar arquivos entre servidores. Ter o BoxB sendo reinicializado ou se tornar indisponível enquanto o BoxA possui montagens ativas é problemático da mesma maneira que extrair um disco de um sistema em execução. Todos os tipos de coisas podem ser deixados em estados ímpares.

Você não nos deu muitas informações sobre o que você usa para a montagem, mas considere alternativas ao NFS. Se você der alguma indicação do que está fazendo, provavelmente sugiro alternativas. GFS, GlusterFS, rsync, lsyncd ou um serviço baseado em HTTP (S) vêm à mente como possibilidades que podem ser aplicadas em pelo menos algumas circunstâncias.

Quanto à sua situação atual, estou supondo que algo ficou pendurado em sua montagem quando o BoxB está inativo e que a parte importante da reinicialização do servidor está desligando o que já está em execução. Se isso é certo, então você deve ser capaz de desligar ambas as caixas, então iniciar BoxA e BoxB, e a montagem ainda deve iniciar OK. Se estou aqui, acho que os logs do BoxA são mais objetivos do que os do BoxB que você compartilhou conosco. Eu olharia para a mesa de montagem também para pistas.

    
por 22.11.2016 / 09:41