NFS - Múltiplos subdiretórios - Apenas um esmagamento conforme o esperado

2

Obtendo um comportamento inesperado ao montar mais de um compartilhamento.

Servidor NFS

$ -> cd /mnt/raid/nas && ls -lZa
drwxrwxr-x. nas        filer      unconfined_u:object_r:file_t:s0  file
drwxrwxr-x. nas        filer      unconfined_u:object_r:file_t:s0  repo

$ -> cat /etc/exports
/mnt/raid/nas                   10.1.0.0/18(rw,fsid=0,sync)
/mnt/raid/nas/repo              10.1.0.0/18(rw,all_squash,sync,no_subtree_check,anonuid=501,anongid=503)
/mnt/raid/nas/file/perm         10.1.0.0/18(rw,all_squash,sync,no_subtree_check,anonuid=501,anongid=503)

$ -> id nas && id filer
uid=501(nas) gid=501(nas) groups=501(nas)
uid=502(filer) gid=503(filer) groups=503(filer)

Cliente NFS

$ -> id nas && id filer
uid=501(nas) gid=501(nas) groups=501(nas)
uid=502(filer) gid=503(filer) groups=503(filer)

$ -> cd /mnt/nas && ls -lZa
drwxrwxr-x. nas        filer      unconfined_u:object_r:mnt_t:s0   repo
drwxrwxr-x. nas        filer      unconfined_u:object_r:mnt_t:s0   store

$ -> sudo mount -t nfs4 nas-1:/repo /mnt/nas/repo
$ -> sudo mount -t nfs4 nas-1:/file/perm /mnt/nas/store/file/perm/

$ -> df -h
nas-1:/repo
                  550G  240G  283G  46% /mnt/nas/repo
nas-1:/file/perm
                  550G  240G  283G  46% /mnt/nas/store/file/perm

Mas quando eu escrevo um arquivo de teste para cada um, apenas o perm / corretamente esmaga o usuário.

$ -> touch /mnt/nas/repo/imagemagick/test_$$.txt
$ -> ls /mnt/nas/repo/imagemagick
-rw-rw-r--.  1 mpurcell mpurcell    0 Apr  5 20:31 test_24571.txt

$ -> touch /mnt/nas/store/file/perm/test_$$.txt
$ -> ls /mnt/nas/store/file/perm/
-rw-rw-r--. 1 nas filer    0 Apr  5 20:32 test_24571.txt

Eu tentei desativar o selinux nas duas caixas, mas isso também não funcionou.

Por que uma montagem está pressionando corretamente o usuário / grupo e a outra não?

--- Atualização ---

Eu tenho que ligar as montagens do NFS no servidor NFS? Eu tinha uma entrada estranha no meu arquivo / etc / fstab, onde um dos diretórios compartilhados estava sendo montado (com bind) e que era o que estava trabalhando. Eu removi a entrada do / etc / fstab no servidor NFS, remontei tudo, e agora a montagem de trabalho no cliente NFS não está mais funcionando.

    
por Mike Purcell 05.04.2016 / 22:34

1 resposta

0

Ugh finalmente conseguiu trabalhar, tinha que fazer o seguinte para hackar o recurso all_squash. Eu fiz isso há um tempo e não me lembro por que isso tinha que ser feito, mas sem ele eu não conseguia fazer com que os perms fossem esmagados corretamente.

$ -> ls /mnt/raid/nas
drwxrwxr-x. 2  nas  filer  repo
drwxrwxr-x. 3  nas  filer  repo_all_squash_hack

$ -> ls /mnt/raid/nas/file
drwxrwxr-x. 2  nas  filer  perm
drwxrwxr-x. 3  nas  filer  perm_all_squash_hack

Em seguida, em / etc / fstab:

/mnt/raid/nas/file/perm_all_squash_hack /mnt/raid/nas/file/perm none    bind    0 0
/mnt/raid/nas/repo_all_squash_hack    /mnt/raid/nas/repo none    bind    0 0

Agora tudo se monta como esperado. Também confirmado via:

$ -> cat /proc/fs/nfs/exports
/mnt/raid/nas   10.1.0.0/18(rw,root_squash,sync,wdelay,no_subtree_check,fsid=0,uuid=d962b590:d8986203:00000000:00000000,sec=1)
/mnt/raid/nas/repo  10.1.0.0/18(rw,root_squash,all_squash,sync,wdelay,no_subtree_check,anonuid=501,anongid=503,uuid=d962b590:d8986203:00000000:00000000,sec=1)
/mnt/raid/nas/file/perm 10.1.0.0/18(rw,root_squash,all_squash,sync,wdelay,no_subtree_check,anonuid=501,anongid=503,uuid=d962b590:d8986203:00000000:00000000,sec=1)
    
por 06.04.2016 / 22:18