RDM de montagem do ESXi 6.0 como volume local

0

Acabei de atualizar meu host ESXi para 6.0 e notei um efeito colateral estranho. Agora, quando a inicialização do meu dispositivo local RDM é montada automaticamente pelo próprio Hypervisor e minha máquina virtual usando ele não pode ser inicializada porque o dispositivo está bloqueado pelo sistema operacional (o erro que estou recebendo é Failed to lock the file ).

Se eu listar todos os dispositivos:

[root@esx:~] esxcli storage filesystem list
Mount Point                                        Volume Name  UUID                                 Mounted  Type             Size          Free
-------------------------------------------------  -----------  -----------------------------------  -------  ------  -------------  ------------
/vmfs/volumes/4cdacf34-9bc2bc46-e644-d48564c85da5  SYSTEM HDU   4cdacf34-9bc2bc46-e644-d48564c85da5     true  VMFS-5   154618822656  127827705856
/vmfs/volumes/4cdacf03-d1fb2b7d-6384-d48564c85da5  DATA HDU     4cdacf03-d1fb2b7d-6384-d48564c85da5     true  VMFS-5  2000112582656  893103636480
/vmfs/volumes/5000b526-be6827b9-b9e9-009c02a7fbf2               5000b526-be6827b9-b9e9-009c02a7fbf2     true  vfat        299712512      83451904
/vmfs/volumes/ad7377ea-9bfcba10-6bad-896a6ee35f64               ad7377ea-9bfcba10-6bad-896a6ee35f64     true  vfat        261853184      87711744
/vmfs/volumes/0baa70e5-8a38dacf-3d88-bca98a363fc0               0baa70e5-8a38dacf-3d88-bca98a363fc0     true  vfat        261853184     122646528
/vmfs/volumes/3c3693e8-f77a642a-1910-5c6bdcb26d3a  Hypervisor3  3c3693e8-f77a642a-1910-5c6bdcb26d3a     true  vfat        299778048     157663232
/vmfs/volumes/b901cb7d-fd6e00e0-e5eb-b36b42d0950f  Hypervisor2  b901cb7d-fd6e00e0-e5eb-b36b42d0950f     true  vfat        261853184     261849088
/vmfs/volumes/4cdacf0f-59b94c5a-79e7-d48564c85da5               4cdacf0f-59b94c5a-79e7-d48564c85da5     true  vfat       4293591040    4269015040
/vmfs/volumes/5b569e71-4ede41ca-d19f-f2af4b6cee7c  Hypervisor1  5b569e71-4ede41ca-d19f-f2af4b6cee7c     true  vfat        261853184     169762816
/vmfs/volumes/localRDM                             RDM          5512f47e-00000000-0000-000000000000     true  ufs     1998251364352  288346738688

O dispositivo que estou tentando desmontar é o último

Mount Point                                        Volume Name  UUID                                 Mounted  Type             Size          Free
-------------------------------------------------  -----------  -----------------------------------  -------  ------  -------------  ------------
/vmfs/volumes/localRDM                             RDM          5512f47e-00000000-0000-000000000000     true  ufs     1998251364352  288346738688

Conforme indicado pelos documentos tentou desmontá-lo, mas o SO está reclamando e não parece querer desmontá-lo:

[root@esx:~] esxcli storage filesystem unmount -l RDM
No volume with label 'RDM' was found
[root@esx:~] esxcli storage filesystem unmount -p /vmfs/volumes/localRDM
No NAS volume was found mounted on '/vmfs/volumes/localRDM'
[root@esx:~] esxcli storage filesystem unmount -u 5512f47e-00000000-0000-000000000000
No volume with uuid '5512f47e-00000000-0000-000000000000' was found

De acordo com os documentos, a sintaxe para desmontar um dispositivo é:

# esxcli storage filesystem unmount [-u UUID | -l label | -p path ]

mas como você pode ver nenhum resultado até agora.

Eu queria saber se eu remover o arquivo vmdk para este dispositivo e recriá-lo pode resolver o problema, mas eu tenho medo de perder todos os dados nele.

Editado 1

Ok, eu deletei o mapeamento do arquivo vmdk, mas o ESXi ainda está montando automaticamente o disco (e não, não há perda de dados)

Editado 2

Eu vejo que não há nenhuma relação direta com o meu disco sendo passado e o ESXi automontando-o enquanto eu pluguei um drive UFS2 recém-formatado e o ESXi também está automontando (e não há RDM para este ainda) / p>     

por mTorres 14.07.2015 / 20:46

1 resposta

1

Eu tive o mesmo problema com as unidades RDM UFS usadas no NAS4Free sendo mapeadas como uma pasta, então fui ao VMWare Forums e pedi ajuda.

Aqui está a resposta do themiron do usuário nos fóruns do VMWare.

it's possible to blacklist ufs module with following esxcli command, so no automount of ufs volumes will happen. host reboot is required

$ esxcli system module set -m ufs -e false

link (adicionado o link para a fonte original como apontado)

    
por 25.08.2015 / 22:26

Tags