Eu herdei um servidor kvm do Ubuntu:
# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 14.04.3 LTS
Release: 14.04
Codename: trusty
... que está nos dando um erro na inicialização sobre ser incapaz de montar uma partição, dando-me a opção de Ignorar ou Recuperar manualmente. Não sei como recuperar manualmente?
O sistema tem duas unidades físicas que são espelhadas por RAID.
No fstab, vejo a seguinte entrada que está falhando:
/dev/mapper/primary-data /mnt/data ext4 defaults 0 2
No entanto, esse arquivo não está em / dev / mapper:
root@vmserver:/dev# ls -al /dev/mapper/
total 0
drwxr-xr-x 2 root root 120 May 18 11:07 .
drwxr-xr-x 18 root root 4680 May 18 11:10 ..
crw------- 1 root root 10, 236 May 18 11:07 control
lrwxrwxrwx 1 root root 7 May 18 11:07 primary-backup -> ../dm-5
lrwxrwxrwx 1 root root 7 May 18 11:07 primary-snap-cow -> ../dm-3
lrwxrwxrwx 1 root root 7 May 18 11:07 primary-system -> ../dm-0
Quando executo o vgdisplay, vejo que há 4 LVs atuais, mas apenas 2 estão abertos?
--- Volume group ---
VG Name primary
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 162
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 4
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size 1.79 TiB
PE Size 4.00 MiB
Total PE 469222
Alloc PE / Size 458476 / 1.75 TiB
Free PE / Size 10746 / 41.98 GiB
VG UUID ahmMej-0Pzn-V9Fk-0utn-q8PV-K7PU-AWxTQ1
Se eu executar vgscan --mknodes
, recebo esta saída:
root@vmserver:/dev# vgscan -v --mknodes
Wiping cache of LVM-capable devices
Wiping internal VG cache
Reading all physical volumes. This may take a while...
Finding all volume groups
Finding volume group "primary"
Found volume group "primary" using metadata type lvm2
Finding all logical volumes
The link /dev/primary/data should had been created by udev but it was not found. Falling back to direct link creation.
The link /dev/primary/snap should had been created by udev but it was not found. Falling back to direct link creation.
Em seguida, o conteúdo do / dev / mapper é o seguinte:
root@vmserver:/dev# ls -al /dev/mapper/
total 0
drwxr-xr-x 2 root root 180 May 18 11:31 .
drwxr-xr-x 18 root root 4680 May 18 11:10 ..
crw------- 1 root root 10, 236 May 18 11:07 control
lrwxrwxrwx 1 root root 7 May 18 11:07 primary-backup -> ../dm-5
brw-rw---- 1 root disk 252, 2 May 18 11:31 primary-data
brw-rw---- 1 root disk 252, 1 May 18 11:31 primary-data-real
brw-rw---- 1 root disk 252, 4 May 18 11:31 primary-snap
lrwxrwxrwx 1 root root 7 May 18 11:07 primary-snap-cow -> ../dm-3
lrwxrwxrwx 1 root root 7 May 18 11:07 primary-system -> ../dm-0
Neste ponto, se eu executar mount -a
, agora posso visualizar a partição no meu ponto de montagem de / mnt / data. No entanto, isso não sobrevive a uma reinicialização.
Alguém pode me apontar na direção certa para fazer com que os dispositivos ausentes apareçam no / dev / mapper consistentemente?