Acredito que colocamos no lixo alguns metadados do thinpool do LVM enquanto movemos 2 grupos de volumes para uma máquina diferente. Agora, estamos tentando reativar os grupos de volumes na máquina original. Os volumes físicos, grupos de volumes e volumes lógicos aparecem todos intactos, mas não consigo ativar nenhum grupo de volumes.
Aqui está a saída do erro ao ativar o grupo de volume:
[root@erbium ~]# vgchange -ay vg_sfim
Thin pool transaction_id is 649, while expected 647.
0 logical volume(s) in volume group "vg_sfim" now active
[root@erbium ~]# vgchange -ay vg_fmrif
Check of pool vg_fmrif/thinpool failed (status:1). Manual repair required!
0 logical volume(s) in volume group "vg_fmrif" now active
A adição dos sinalizadores verbose
e / ou ignoreactivationskip
não fornece informações mais úteis.
Aqui está a saída de pvs
:
[root@erbium archive]# pvs
PV VG Fmt Attr PSize PFree
/dev/sda2 vg_erbium lvm2 a-- 59.51g 0
/dev/sdb vg_sfim lvm2 a-- 29.80t 0
/dev/sdc vg_sfim lvm2 a-- 6.58t 0
/dev/sdd vg_fmrif lvm2 a-- 36.39t 0
Aqui está a saída de vgs
:
[root@erbium archive]# vgs
VG #PV #LV #SN Attr VSize VFree
vg_erbium 1 3 0 wz--n- 59.51g 0
vg_fmrif 1 14 0 wz--n- 36.39t 0
vg_sfim 2 3 0 wz--n- 36.39t 0
Aqui está a saída de lvs
:
[root@erbium archive]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv_home vg_erbium -wi-ao---- 3.19g
lv_root vg_erbium -wi-ao---- 32.68g
lv_swap vg_erbium -wi-ao---- 23.64g
lv_fmrif vg_fmrif Vwi---tz-- 20.00t thinpool
lv_fmrif_2014_11_20_23_00 vg_fmrif Vwi---tz-k 20.00t thinpool lv_fmrif
lv_fmrif_2014_11_21_23_00 vg_fmrif Vwi---tz-k 20.00t thinpool lv_fmrif
lv_fmrif_2014_11_22_23_00 vg_fmrif Vwi---tz-k 20.00t thinpool lv_fmrif
lv_fmrif_2014_11_23_23_00 vg_fmrif Vwi---tz-k 20.00t thinpool lv_fmrif
lv_fmrif_2014_11_24_23_00 vg_fmrif Vwi---tz-k 20.00t thinpool lv_fmrif
lv_fmrif_2014_11_25_23_00 vg_fmrif Vwi---tz-k 20.00t thinpool lv_fmrif
lv_users vg_fmrif Vwi---tz-- 1.00t thinpool
lv_users_2014_11_21_23_00 vg_fmrif Vwi---tz-k 1.00t thinpool lv_users
lv_users_2014_11_22_23_00 vg_fmrif Vwi---tz-k 1.00t thinpool lv_users
lv_users_2014_11_23_23_00 vg_fmrif Vwi---tz-k 1.00t thinpool lv_users
lv_users_2014_11_24_23_00 vg_fmrif Vwi---tz-k 1.00t thinpool lv_users
lv_users_2014_11_25_23_00 vg_fmrif Vwi---tz-k 1.00t thinpool lv_users
thinpool vg_fmrif twi---tz-- 36.39t
lv_sfim vg_sfim Vwi---tz-k 35.00t sfim_thinpool
lv_sfim_2014_11_23_23_00 vg_sfim Vwi---tz-k 35.00t sfim_thinpool
sfim_thinpool vg_sfim twi---tz-- 36.39t
Temos backups do que acredito serem metadados em /etc/lvm/archive
até o último mês.
Espero que possamos restaurar os metadados do diretório de arquivos.
Um problema com essa ideia é que não posso simplesmente restaurá-la usando vgcfgrestore
porque temos snapshots thin-provisioned.
Eu preciso usar a opção --force
, que é " necessário para restaurar metadados com volumes thin pool ", mas também vem com um grande AVISO: Use com extrema cautela ... .
Alguém viu algum problema ou mensagem de erro como esta e / ou recebeu algum conselho?