recuperar LVM após travamento de disco rígido

4

Ontem, um disco rígido do meu LVM caiu (erro inteligente)

A máquina tem a seguinte configuração:
 - 4 hdds
 - Partition Raid10 (Sistema, 4 * 50GB)
 - 1 partição normal (/ boot, 200MB, sda)
 - 1 partição LVM2 (dados, 4 * ~ 850GB)
 - Ubuntu 10.04 Server (sem cabeça)

Agora meu lvm não monta mais, o Ubuntu me pede para pular ou recuperar manualmente na inicialização. Quando pressiono S, o sistema inicia, mas sem que meu lvm seja montado.

Agora minha partição do sistema não parece ser afetada (/ proc / mdstat parece como sempre), um / boot funciona bem também.

O que vou tentar agora é para o
 - comprar um novo disco rígido
 - Integrar o disco rígido no meu lvm
 - Tente remover a parte sda do lvm (copie-a para o novo sde, ou o que for que o lvm queira)
 - Fazer o ataque (acho que vou descobrir como fazer isso, senão vou fazer outra pergunta)

Agora meus problemas:
 Posso remover o sda do lvm (remover conteúdo de cópia de significado e marcar a partição como não em uso para que eu possa desconectar a unidade)?  - Se eu não conseguir remover a partição normalmente, existem ferramentas para recuperar os arquivos nesta partição, para que eu possa copiá-los manualmente para o "novo" lvm?

Obrigado pela sua ajuda

EDIT:
solução separada da pergunta

    
por sBlatt 19.11.2010 / 10:47

3 respostas

0

O computador funciona agora. Aqui meus passos detalhados:
As minhas partições sda (drive defeituoso) ficaram assim:
sda1: / boot
sda2: raid10 member (system)
sda3: membro lvm

  • Anexar novo disco rígido de substituição
  • dd if = / dev / sda de = / dev / sde (copie os cotents do hdd com defeito para o novo, na verdade eu fiz ctrl + c depois de um minuto pois eu só precisava da tabela de partições)
  • dd if = / dev / sda1 de = / dev / sde1 (partição copy / boot para o novo disco)
  • vgextend my_volume_group / dev / sde3 (adicione a partição lvm do novo disco ao meu lvm)
  • pvmove / dev / sda3 (move os dados da unidade defeituosa para outra unidade)
  • Remove sda2 do meu raid10
  • alterou fstab para obter / boot de sda1 não por uuid (pois isso muda ao substituir o hdd)
  • grub-install / dev / sde (como é uma versão atualizada do 8.04, versões mais recentes precisariam do grub2-install)

agora minhas partições sde lokked o seguinte:
sde1: / boot
sde2: partição raid (não inicializada)
partição sde3: lvm (inicializado, lvm funcionou novamente)

Eu desliguei o computador, substitui o disco rígido (assim sde seria sda, removido sda antigo) e reinicie o computador. TUDO funcionou! Eu nem precisei usar um live cd para consertar bootloader / outras coisas, milagrosamente sda2 foi reconhecido como membro raid10 e foi inicializado automaticamente!

    
por sBlatt 17.04.2011 / 11:44
1

pensando pvmove é a linha de comando que você está procurando ... detalhes aqui: link

    
por RobotHumans 19.11.2010 / 14:50
1

Não está muito claro para mim se o seu LVM está no topo do RAID ou não? Se não, então você está sem sorte de obter os dados do LVM.

    
por popey 19.11.2010 / 14:59