O NFS Mount falha na inicialização

7

Eu tenho vários servidores Ubuntu, recentemente instalei alguns servidores 11.04 (e 1 desktop) e acabei de descobrir que, ao reinicializar, as montagens do nfs não serão montadas.

Eu tentei atualizar o nfs-common para a versão mais recente (eu sou apenas uma pequena revisão por trás), mas isso apenas muda um pouco meus erros. Todos esses servidores com os problemas são clones (vmWare) de um modelo de servidor que fiz há algum tempo, então pensei que talvez fosse um problema com o modelo e, portanto, com todos os seus clones. Eu tentei a mesma montagem no Desktop 11.04, mas tive os mesmos problemas. Cerca de metade do tempo, poderei pressionar "S" para pular, mas a outra metade do tempo que o servidor congela (e eu restauro de um instantâneo recente). Além disso, o que é estranho é que se eu sou capaz de entrar no sistema, então eu posso fazer um "mount -a" bem e ele vai montar tudo. Isso me faz pensar que o problema é que o nfs não está esperando que uma rede esteja presente para tentar montar. Outra coisa que me faz pensar é que recebo um erro "não é possível resolver o host" (para um ponto NFS), mesmo que esse host esteja em / etc / hosts.

Aqui está meu /var/log/boot.log

fsck from util-linux-ng 2.17.2
fsck from util-linux-ng 2.17.2
/dev/sda1 was not cleanly unmounted, check forced.
/dev/mapper/php53x-root: clean, 75641/1032192 files, 492673/4126720 blocks (check in 5 mounts)
init: portmap-wait (statd) main process (373) killed by TERM signal
init: statd main process (402) terminated with status 1
init: statd main process ended, respawning
init: statd-mounting main process (355) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd-mounting main process (416) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd main process (435) terminated with status 1
init: statd main process ended, respawning
init: statd main process (459) terminated with status 1
init: statd main process ended, respawning
mountall: mount /var/www [410] terminated with status 32
mountall: mount /var/users [436] terminated with status 32
init: statd-mounting main process (448) killed by TERM signal
init: statd main process (468) terminated with status 1
init: statd main process ended, respawning
init: statd main process (498) terminated with status 1
init: statd main process ended, respawning
/dev/sda1: 226/124496 files (1.3% non-contiguous), 39133/248832 blocks
mountall: fsck /boot [268] terminated with status 1
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [583] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [575] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [638] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [645] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [724] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [729] terminated with status 32 Skipping /var/www at user request
 * Starting AppArmor profiles        [80G  [74G[ OK ]
 * Starting Name Service Cache Daemon nscd        [80G  [74G[ OK ]
FATAL: Module vmhgfs not found.
FATAL: Module vmsync not found.
FATAL: Module vmblock not found.
 * Loading open-vm-tools modules        [80G  [74G[ OK ]
 * Starting open-vm daemon vmtoolsd        [80G  [74G[ OK ]

Desculpe pelo longo post, só queria transmitir o máximo de informações possível. Alguém tem alguma sugestão sobre isso? Estive pesquisando o dia todo e tentei coisas com o _netdev e também alterei a configuração do statd, mas nada funcionou. Eu tenho 6 servidores isso está efetuando. : \

/ etc / fstab: (somente linhas problemáticas - removê-las permitirá que o restante do nfs seja montado)

NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites      /var/www       nfs     ro,defaults        0       0
NFSSERVER-priv:/vol/vol1_isp/vusers      /var/users       nfs     defaults        0       0

/ etc / hosts (entrada relevante):

10.1.1.43 NFSSERVER-priv
    
por Scott Rowley 07.11.2011 / 21:30

4 respostas

3

Veja o que fiz como uma solução para o caso de alguém se deparar com este problema e procurar a solução aqui:

Criado um script (mountall.sh) em /etc/init.d /:

#!/bin/bash

mount -r NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites /var/www
mount    NFSSERVER-priv:/vol/vol1_isp/vusers          /var/users

Torne o sistema ciente do novo script:

update-rc.d mountall.sh defaults

A opção "defaults" coloca um link para iniciar o mountall.sh nos níveis de execução 2, 3, 4 e 5. (e coloca um link para parar o mountall.sh em 0, 1 e 6).

Chmod o arquivo a ser executável

chmod +x mountall.sh

Agora, quando você inicia o 6, você deve ter seus pontos de montagem. Também é uma boa idéia fazer um "comentário" no seu fstab para que as pessoas saibam onde tudo está sendo montado, já que será o primeiro lugar em que elas aparecerão.

    
por Scott Rowley 08.11.2011 / 16:02
1

Não tenho certeza se isso é aplicável a você, mas o problema estava tendo era que o diretório que eu estava tentando montar não estava disponível na inicialização. Em vez disso, tentei montar em /mnt e funcionou.

    
por puk 16.11.2013 / 04:05
1

Eu estava tendo o mesmo problema depois de atualizar o Ubuntu 14.04 para 14.10. Aqui está o que resolveu o problema para mim:

Edite /etc/default/nfs-common e certifique-se de que diz:

NEED_STATD=yes

Depois de reiniciar, minhas montagens do NFS funcionaram.

    
por Christopher K. 08.12.2014 / 12:00
-3

Se você estiver usando a janela 8, certamente os discos formatados do nfs não serão montados e a resposta para esse problema é "instale novamente o Windows 8 e desabilite a opção de hibernação nas configurações" e somente você poderá montar discos formatados do nfs.

    
por adithya 16.11.2013 / 05:15