Eu estraguei um pouco e estou tentando encontrar a melhor maneira de recuperar.
Alguns dias atrás, 1 disco físico da minha configuração lvm começou a mostrar sinal de falha (erros de E / S), então decidi movê-lo para outro disco com pvmove. Isso não deu certo. Após 5 dias, o pvmove tinha feito apenas 0,1%, então parei.
Após a reinicialização, o disco morrendo não apareceu, ele morreu completamente, então decidi removê-lo com:
vgreduce --removemissing --force VolGroup00
O problema é que ele se recusou a fazê-lo por causa do pvmove dizendo que o LV estava bloqueado. Eu tentei:
pvmove --abort
Mas recusou-se a fazê-lo devido ao disco ausente que morreu.
Então eu estava preso e fiz:
vgcfgbackup VolGroup00
Depois eu editei o arquivo, removi a entrada sobre pvmove, tentei:
vgcfgbackup VolGroup00
Que ele se recusou a restaurar por causa do disco ausente, então eu editei o arquivo novamente, removi o disco ausente e fiz o vgcfgrestore que foi bem-sucedido.
Agora, o problema é que não consigo montar meu volume porque diz:
wrong fs type, bad option, bad superblock
O que faz sentido, já que o tamanho da partição deve ser de 2.4Tb, mas agora tem apenas 2.2Tb. Agora a questão é como eu corrijo isso? Devo usar uma ferramenta como testdisk ou devo ser capaz de criar um novo volume / volume físico onde eu possa adicionar meus volumes lógicos que consistem em 2 discos físicos e de alguma forma obter o sistema de arquivos correto (o sistema de arquivos é ext4)? / p>
saída do pvdisplay:
--- Physical volume ---
PV Name /dev/sda4
VG Name VolGroup00
PV Size 417.15 GiB / not usable 4.49 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 106789
Free PE 0
Allocated PE 106789
PV UUID dRhDoK-p2Dl-ryCc-VLhC-RbUM-TDUG-2AXeWQ
--- Physical volume ---
PV Name /dev/sdb1
VG Name VolGroup00
PV Size 1.82 TiB / not usable 4.97 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 476923
Free PE 0
Allocated PE 476923
PV UUID MF46QJ-YNnm-yKVr-pa3W-WIk0-seSr-fofRav
Ainda tenho a configuração antes de morrer. Abaixo está como foi. O disco que morreu (e que eu removi) é pv1 (/ dev / sdc1) mas não quer restaurar essa configuração porque diz que o disco está faltando.
VolGroup00 {
id = "a0p2ke-sYDF-Sptd-CM2A-fsRQ-jxPI-6sMc9Y"
seqno = 4
format = "lvm2" # informational
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192 # 4 Megabytes
max_lv = 0
max_pv = 0
metadata_copies = 0
physical_volumes {
pv0 {
id = "dRhDoK-p2Dl-ryCc-VLhC-RbUM-TDUG-2AXeWQ"
device = "/dev/sda4" # Hint only
status = ["ALLOCATABLE"]
flags = []
dev_size = 874824678 # 417.149 Gigabytes
pe_start = 2048
pe_count = 106789 # 417.145 Gigabytes
}
pv1 {
id = "NOskcl-8nOA-PpZg-DCtW-KQgG-doKw-n3J9xd"
device = "/dev/sdc1" # Hint only
status = ["ALLOCATABLE"]
flags = []
dev_size = 625142385 # 298.091 Gigabytes
pe_start = 2048
pe_count = 76311 # 298.09 Gigabytes
}
pv2 {
id = "MF46QJ-YNnm-yKVr-pa3W-WIk0-seSr-fofRav"
device = "/dev/sdb1" # Hint only
status = ["ALLOCATABLE"]
flags = []
dev_size = 3906963393 # 1.81932 Terabytes
pe_start = 2048
pe_count = 476923 # 1.81932 Terabytes
}
}
logical_volumes {
lvolmedia {
id = "aidfLk-hjlx-Znrp-I0Pb-JtfS-9Fcy-OqQ3EW"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "archiso"
creation_time = 1402302740 # 2014-06-09 10:32:20 +0200
segment_count = 3
segment1 {
start_extent = 0
extent_count = 476923 # 1.81932 Terabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv2", 0
]
}
segment2 {
start_extent = 476923
extent_count = 106789 # 417.145 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 0
]
}
segment3 {
start_extent = 583712
extent_count = 76311 # 298.09 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv1", 0
]
}
}
}
Obrigado pela sua ajuda.