Não é possível remover o array raid-1 do software quando está em estado degradado

2

Eu quero remover o software raid-1 array [quando está degradado] configurado no LVM no sistema linux e incapaz de remover o mesmo. Eu até tentei usar o Knoppix Live CD para remover o RAID-1 associado ao LVM, mas essa tentativa também falhou. Quando eu analisei o problema, há um LVM configurado junto com o RAID e o volume lógico (vg0-root) é montado no sistema de arquivos "/". Você poderia, por favor, sugerir qualquer forma de excluir este array Raid-1 sem perda de dados.

Por favor, descubra a configuração do sistema:

root@:~# fdisk -l

Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    34613373    17305663   da  Non-FS data
/dev/sdb4   *    34613374   156248189    60817408   fd  Linux raid autodetect
Partition 4 does not start on physical sector boundary.

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048    34613373    17305663   da  Non-FS data
/dev/sda4   *    34613374   156248189    60817408   fd  Linux raid autodetect
Partition 4 does not start on physical sector boundary.


root@:~# lsblk
NAME                    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                       8:0    0 465.8G  0 disk
├─sda1                    8:1    0  16.5G  0 part
└─sda4                    8:4    0    58G  0 part
  └─md0                   9:0    0    58G  0 raid1
    ├─vg0-swap (dm-0)   252:0    0   1.9G  0 lvm   [SWAP]
    ├─vg0-root (dm-1)   252:1    0  19.6G  0 lvm   /
    └─vg0-backup (dm-2) 252:2    0  19.6G  0 lvm
sdb                       8:16   0 465.8G  0 disk
├─sdb1                    8:17   0  16.5G  0 part
└─sdb4                    8:20   0    58G  0 part

root@S761012:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda4[0]
      60801024 blocks super 1.2 [2/1] [U_]

unused devices: <none>


root@:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Sep 23 02:59:04 2015
     Raid Level : raid1
     Array Size : 60801024 (57.98 GiB 62.26 GB)
  Used Dev Size : 60801024 (57.98 GiB 62.26 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Tue Mar  7 23:38:20 2017
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : Raja:0
           UUID : 8b007464:369201ca:13634910:1d1d4bbf
         Events : 823063

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       0        0        1      removed


root@:~# mdadm --manage /dev/md0 --fail /dev/sda4
mdadm: set device faulty failed for /dev/sda4:  Device or resource busy

root@:~# mdadm --manage /dev/md0 --remove /dev/sda4
mdadm: hot remove failed for /dev/sda4: Device or resource busy

root@:~# mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?


    root@:~# pvdisplay
      --- Physical volume ---
      PV Name               /dev/md0
      VG Name               vg0
      PV Size               57.98 GiB / not usable 3.00 MiB
      Allocatable           yes
      PE Size               4.00 MiB
      Total PE              14843
      Free PE               4361
      Allocated PE          10482
      PV UUID               uxH3FS-sUOF-LsIP-kAjq-7Bwq-suhK-CLJXI1

    root@:~#:~# lvdisplay
      --- Logical volume ---
      LV Path                /dev/vg0/swap
      LV Name                swap
      VG Name                vg0
      LV UUID                BIwp5H-NYlf-drQJ-12Vf-5qYM-7NUj-ty9GhE
      LV Write Access        read/write
      LV Creation host, time S000001, 2015-09-23 03:00:58 +0000
      LV Status              available
      # open                 2
      LV Size                1.86 GiB
      Current LE             476
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:0

      --- Logical volume ---
      LV Path                /dev/vg0/root
      LV Name                root
      VG Name                vg0
      LV UUID                SBf1mc-iqaB-noBx-1neo-IEPi-HhsH-SM14er
      LV Write Access        read/write
      LV Creation host, time S000001, 2015-09-23 03:01:19 +0000
      LV Status              available
      # open                 1
      LV Size                19.54 GiB
      Current LE             5003
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:1

      --- Logical volume ---
      LV Path                /dev/vg0/backup
      LV Name                backup
      VG Name                vg0
      LV UUID                w1jGGy-KkfJ-0lDp-MFDl-8BJU-uJWU-24XKSL
      LV Write Access        read/write
      LV Creation host, time SRAJA, 2016-10-22 05:30:03 +0000
      LV Status              available
      # open                 0
      LV Size                19.54 GiB
      Current LE             5003
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:2

    root@:~# vgdisplay
      --- Volume group ---
      VG Name               vg0
      System ID
      Format                lvm2
      Metadata Areas        1
      Metadata Sequence No  674
      VG Access             read/write
      VG Status             resizable
      MAX LV                0
      Cur LV                3
      Open LV               2
      Max PV                0
      Cur PV                1
      Act PV                1
      VG Size               57.98 GiB
      PE Size               4.00 MiB
      Total PE              14843
      Alloc PE / Size       10482 / 40.95 GiB
      Free  PE / Size       4361 / 17.04 GiB
      VG UUID               LjCUyX-25MQ-WCFT-j2eF-2UWX-LYCp-TtLVJ5

Por fim, tentei fazer:

 root@S761012:~# mdadm --zero-superblock /dev/md0
 mdadm: Couldn't open /dev/md0 for write - not zeroing

root @: ~ # umount / dev / md0     umount: / dev / md0: não montado     root @: ~ #     root @: ~ # mdadm --manage / dev / md0 --remove / dev / sda4     mdadm: a remoção a quente falhou para / dev / sda4: dispositivo ou recurso ocupado     root @: ~ # mdadm --stop / dev / md0     mdadm: Não é possível obter acesso exclusivo a / dev / md0: Talvez um processo em execução, sistema de arquivos montado ou grupo de volumes ativo?     root @: ~ # mdadm --zero-superblock / dev / sda4     mdadm: Não foi possível abrir / dev / sda4 para escrever - não zerar

Como sda4 é o disco ativo, não está me permitindo fazer nenhuma operação. Você poderia, por favor, sugerir outras maneiras de alcançar o mesmo.

  • Tentei com o live CD do knoppix live e do Gparted, o resultado é o mesmo.

Eu tentei usar as etapas mencionadas:

create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting 'testdisk') or select Quick Search and Press Enter
select Deeper Search   -> After deep search is not showing any thing.

- > Nenhuma partição encontrada ou selecionada para recuperação. Está vazia. Devido a que o reparo de inicialização também não está funcionando como esperado. Sempre vai grub modo de resgate.

    
por Sunny 14.03.2017 / 23:05

2 respostas

2

Antes de tudo você deve entender como funciona. As partições funcionam em todo o disco sda, o software RAID funciona sobre partições e, a seguir, no diagrama:

Disco sda - > partição sda4 - > RAID de software md0 - > Volume físico LVM - > Grupo de volumes LVM vg0 - > Volume lógico da LVM - > sistema de arquivos - > ponto de montagem do sistema.

Você não pode desmontar o sistema de arquivos raiz da interface de linha de comando que está sendo executado a partir dele. É por isso que você precisa rodar o mesmo sistema Linux em CD / DVD. Você pode usar o mesmo CD de instalação do Linux ou a última versão SystemRescueCD . Você precisa verificar depois de iniciar a partir do CD:

  • O software RAID está iniciando e seu estado pelo comando cat /proc/mdstat ? O dispositivo RAID md pode ter outro número.

  • O grupo de volumes LVM está ativo por comando vgdisplay ?

  • Os sistemas de arquivos (nos volumes LVM) são montados pelo comando mount ?

Em seguida, desmonte todos os sistemas de arquivos que são colocados nos volumes LVM pelo comando umount , desative o grupo de volumes LVM vg0 pelo comando vgchange -a n vg0 , encerre a matriz RAID pelo comando mdadm --stop /dev/md0 , remova o dispositivo RAID pelo comando mdadm --remove /dev/md0 e só então zerar o superbloco em sda4 pelo comando mdadm --zero-superblock /dev/sda4 .

Antes de tudo você precisa fazer backup de todos os arquivos em todos os sistemas de arquivos de volumes LVM.

Pode ser que você restaure o carregador de boot do grub.

Atualizações:

Antes de restaurar a inicialização, você precisa restaurar o LVM! Inicialize seu sistema novamente a partir do SystemResqueCD. Execute fdisk /dev/sda e pressione:

t (type)
4
8e (Linux LVM)
w

Em seguida, execute testdisk :

create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting 'testdisk') or select Quick Search and Press Enter
select Deeper Search
select Linux LVM with heights start CHS values and press space key to change this found structure as Primary partition and press enter
select Write

Em seguida, armazene o backup do testdisk em algum lugar por scp backup.log user@somehost:~ e reinicie novamente a partir do SystemResqueCD. após a reinicialização, você pode ver seu volumegroup vg0 pelo comando vgdisplay. Se não estiver, execute testdisk novamente, carregue o backup do testdisk e inicie novamente com outra partição Linux LVM fundada.

Depois de restaurar o LVM com sucesso, você pode restaurar a inicialização como descrito em Reparo da inicialização do Ubuntu .

    
por 15.03.2017 / 19:03
0

Você provavelmente terá que reverter para o modo 'usuário único' usando o comando de desligamento e, em seguida, desmontar o volume enquanto estiver no modo de usuário único. Nesse ponto, o volume RAID-1 não estará em uso e você poderá excluir a matriz RAID.

desligamento agora deve trazer você para usuário único.

shutdown -h now irá parar o sistema

shutdown -r now irá reiniciá-lo

shutdown --help dá a você todas as opções do comando, incluindo o envio de mensagens para usuários logados que você está levando o sistema para o modo de usuário único.

    
por 15.03.2017 / 00:09