fs quebrado depois de remover o disco do grupo LVM

1

Eu estraguei um pouco e estou tentando encontrar a melhor maneira de recuperar.

Alguns dias atrás, 1 disco físico da minha configuração lvm começou a mostrar sinal de falha (erros de E / S), então decidi movê-lo para outro disco com pvmove. Isso não deu certo. Após 5 dias, o pvmove tinha feito apenas 0,1%, então parei.

Após a reinicialização, o disco morrendo não apareceu, ele morreu completamente, então decidi removê-lo com:

vgreduce --removemissing --force VolGroup00

O problema é que ele se recusou a fazê-lo por causa do pvmove dizendo que o LV estava bloqueado. Eu tentei:

pvmove --abort

Mas recusou-se a fazê-lo devido ao disco ausente que morreu.

Então eu estava preso e fiz:

vgcfgbackup VolGroup00

Depois eu editei o arquivo, removi a entrada sobre pvmove, tentei:

vgcfgbackup VolGroup00

Que ele se recusou a restaurar por causa do disco ausente, então eu editei o arquivo novamente, removi o disco ausente e fiz o vgcfgrestore que foi bem-sucedido.

Agora, o problema é que não consigo montar meu volume porque diz:

wrong fs type, bad option, bad superblock

O que faz sentido, já que o tamanho da partição deve ser de 2.4Tb, mas agora tem apenas 2.2Tb. Agora a questão é como eu corrijo isso? Devo usar uma ferramenta como testdisk ou devo ser capaz de criar um novo volume / volume físico onde eu possa adicionar meus volumes lógicos que consistem em 2 discos físicos e de alguma forma obter o sistema de arquivos correto (o sistema de arquivos é ext4)? / p>

saída do pvdisplay:

--- Physical volume ---
PV Name               /dev/sda4
VG Name               VolGroup00
PV Size               417.15 GiB / not usable 4.49 MiB
Allocatable           yes (but full)
PE Size               4.00 MiB
Total PE              106789
Free PE               0
Allocated PE          106789
PV UUID               dRhDoK-p2Dl-ryCc-VLhC-RbUM-TDUG-2AXeWQ

--- Physical volume ---
PV Name               /dev/sdb1
VG Name               VolGroup00
PV Size               1.82 TiB / not usable 4.97 MiB
Allocatable           yes (but full)
PE Size               4.00 MiB
Total PE              476923
Free PE               0
Allocated PE          476923
PV UUID               MF46QJ-YNnm-yKVr-pa3W-WIk0-seSr-fofRav 

Ainda tenho a configuração antes de morrer. Abaixo está como foi. O disco que morreu (e que eu removi) é pv1 (/ dev / sdc1) mas não quer restaurar essa configuração porque diz que o disco está faltando.

VolGroup00 {
    id = "a0p2ke-sYDF-Sptd-CM2A-fsRQ-jxPI-6sMc9Y"
    seqno = 4
    format = "lvm2"                 # informational
    status = ["RESIZEABLE", "READ", "WRITE"]
    flags = []
    extent_size = 8192              # 4 Megabytes
    max_lv = 0
    max_pv = 0
    metadata_copies = 0

    physical_volumes {

            pv0 {
                    id = "dRhDoK-p2Dl-ryCc-VLhC-RbUM-TDUG-2AXeWQ"
                    device = "/dev/sda4"    # Hint only

                    status = ["ALLOCATABLE"]
                    flags = []
                    dev_size = 874824678    # 417.149 Gigabytes
                    pe_start = 2048
                    pe_count = 106789       # 417.145 Gigabytes
            }

            pv1 {
                    id = "NOskcl-8nOA-PpZg-DCtW-KQgG-doKw-n3J9xd"
                    device = "/dev/sdc1"    # Hint only

                    status = ["ALLOCATABLE"]
                    flags = []
                    dev_size = 625142385    # 298.091 Gigabytes
                    pe_start = 2048
                    pe_count = 76311        # 298.09 Gigabytes
            }

            pv2 {
                    id = "MF46QJ-YNnm-yKVr-pa3W-WIk0-seSr-fofRav"
                    device = "/dev/sdb1"    # Hint only

                    status = ["ALLOCATABLE"]
                    flags = []
                    dev_size = 3906963393   # 1.81932 Terabytes
                    pe_start = 2048
                    pe_count = 476923       # 1.81932 Terabytes
            }
    }

    logical_volumes {

            lvolmedia {
                    id = "aidfLk-hjlx-Znrp-I0Pb-JtfS-9Fcy-OqQ3EW"
                    status = ["READ", "WRITE", "VISIBLE"]
                    flags = []
                    creation_host = "archiso"
                    creation_time = 1402302740      # 2014-06-09 10:32:20 +0200
                    segment_count = 3

                    segment1 {
                            start_extent = 0
                            extent_count = 476923   # 1.81932 Terabytes

                            type = "striped"
                            stripe_count = 1        # linear

                            stripes = [
                                    "pv2", 0
                            ]
                    }
                    segment2 {
                            start_extent = 476923
                            extent_count = 106789   # 417.145 Gigabytes

                            type = "striped"
                            stripe_count = 1        # linear

                            stripes = [
                                    "pv0", 0
                            ]
                    }
                    segment3 {
                            start_extent = 583712
                            extent_count = 76311    # 298.09 Gigabytes

                            type = "striped"
                            stripe_count = 1        # linear

                            stripes = [
                                    "pv1", 0
                            ]
                    }
            }
    }

Obrigado pela sua ajuda.

    
por ttux 13.11.2014 / 10:38

1 resposta

0

Eu fui mais longe na resolução do meu problema.

Me deparei com isso: link

E então eu pluguei um novo disco, fiz:

pvcreate --uuid NOskcl-8nOA-PpZg-DCtW-KQgG-doKw-n3J9xd --restorefile VolGroup00_00001-16738001.vg /dev/sdc1

O VolGroup00_00001-16738001.vg sendo a configuração do lvm antes do disco morrer e eu o removi.

Então eu fiz:

vgcfgrestore VolGroup00
vgscan
vgchange -ay VolGroup00

O VolGroup00 para o vgcfgrestore sendo o VolGroup00_00001-16738001.vg do anterior. Tudo isso foi bem sucedido, como no link acima.

Consigo montar o volume e acessar meus dados agora, mas tenho o problema com fsck:

The filesystem size (according to the  superblock) is 675863552 blocks
The physical size of the device is  597721088 blocks
Either the superblock or the partition table is likely  to be corrupt!
Abort<y>?
    
por 14.11.2014 / 10:10