/ dev / md127 se recusa a parar. Nenhum arquivo aberto

7

Estou tentando parar o / dev / md127 na minha caixa Ubuntu 12.10. Ele foi configurado como RAID1, mas estou tentando mover tudo (bem, renomear) para md0. Eu li que a renomeação não é possível, então estou tentando remover as unidades e colocá-las em uma nova matriz como md0. Eu consegui remover uma unidade (sdb) usando --fail e --remove, mas o sdc não está respondendo, nem o md127 responderá a --stop --force.

Eu executei o fuser e o lsof e nem mostrei nada usando o md127. Eu estava executando o LVM em cima de md127, mas eu montei os LVs e eu fiz "{lv, vg} alterar um nome_vg".

Não sei o que tentar em seguida. E para aqueles que querem saber porque eu quero renomear / mover, eu sou um pouco OCD sobre coisas assim.

Se for relevante, aqui estão os comandos exatos que usei, embora os comandos stop / fail / remove tenham sido tentados várias vezes:

mdadm --stop --force /dev/md127 # this failed with the error message "mdadm: Cannot get exclusive access to /dev/md127:Perhaps a running process, mounted filesystem or active volume group?"
fuser /dev/md127 # no output
lsof /dev/md127 # no output
mdadm --fail /dev/md127 /dev/sdb # succeeded
mdadm --remove /dev/md127 /dev/sdb # succeeded
mdadm --fail /dev/md127 /dev/sdc # this failed - "device or resource busy"
mdadm --remove /dev/md127 /dev/sdc # this failed - "device or resource busy"
lvchange -an vg_Name
vgchange -an vg_Name
    
por David Young 28.10.2012 / 19:08

4 respostas

3

Se tudo o que você está tentando fazer é alterar o número do dispositivo, adicione o array ao seu arquivo de configuração com o número do dispositivo de nossa preferência usando o seguinte comando:

    echo "ARRAY /dev/md0 level=raid1 num-devices=2 UUID=$(blkid -s UUID -o value /dev/md127) devices=/dev/sdb,/dev/sdc" >> /etc/mdadm.conf

Uma vez que você tenha colocado seu raid em /etc/mdadm.conf, apenas reinicie e o raid deve ser remontado automaticamente usando o número do dispositivo que você especificou. Isso tem a vantagem de garantir que seu ataque seja construído com o mesmo nome de dispositivo em cada inicialização.

    
por 16.04.2013 / 21:08
2

Você pode colar a saída dos seguintes comandos?

mdadm -D /dev/md127

mdadm -E /dev/sdc

cat /proc/mdstat

Por favor, note que é possível "renomear" o ataque. A renomeação nesse caso depende da versão do superbloco que o raid está usando.

Para renomear um superbloco 0.90, você deve usar o seguinte comando: mdadm -A /dev/md0 -U super-minor -u <uuid of the array>

Para renomear um superbloco 1.X, você deve usar o seguinte comando: mdadm -A /dev/md0 -U name -N <new name> -u <uuid of the array>

Como eu não entendi, você pode explicar por que você quer renomeá-lo? O nome do nó md127 é montado por seus scripts initramfs, já que eles estão iniciando a partir do md127. Tanto quanto sei, você pode alterar o número menor preferido, mas os scripts initramfs, independentemente do número menor, começam com a montagem do nó 127.

    
por 04.01.2013 / 21:48
1

Se você estiver usando o LVM em cima do mdadm, às vezes o LVM não excluirá os dispositivos do Device Mapper ao desativar o grupo de volumes. Você pode excluí-lo manualmente.

  1. Verifique se não há nada na saída de sudo vgdisplay .
  2. Procure em /dev/mapper/ . Além do arquivo control , deve haver um dispositivo do Mapeador de dispositivos com o nome do seu grupo de volumes, por exemplo, VolGroupArray-name .
  3. Execute sudo dmsetup remove VolGroupArray-name (substituindo VolGroupArray-name pelo nome do dispositivo Device Mapper).
  4. Agora você deve conseguir executar sudo mdadm --stop /dev/md0 (ou qualquer que seja o nome do dispositivo mdadm ).
por 20.09.2017 / 11:00
0

Eu tive esse problema. Eu tinha dois SATA espelhados no CentOS 6.5 e atualizei para 7.5. Meu controlador 3Ware não era mais suportado.

NOTA: Eu tinha um controlador RAID de 3Ware, mas usei o mdadm para fazer um RAID de software em 6.5, por isso nunca tive um RAID de hardware criado.

Então, enquanto eu estava na loja de computadores recebendo um novo controlador PCI SATA, decidi adicionar outra unidade e ir para a configuração do RAID 5. Não consegui fazer um mkfs no volume; ele disse que outro processo estava em uso. Eu não pude pará-lo nem removê-lo.

Enquanto tentava tudo o que conseguia pensar, recebi esta mensagem:

mdadm --fail /dev/sda
mdadm: /dev/sda does not appear to be an md device
[root@TomNAS1 ~]# mdadm /dev/md5
/dev/md5: 3725.78GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail.
/dev/md5: device 0 in 2 device undetected raid1 /dev/md/2_0. Use mdadm --examine for more detail.

Então eu fiz:

mdadm --examine /dev/md5
/dev/md5:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ffd28566:a7b7ad42:b26b218f:452df0ca
  Creation Time : Wed Dec  8 12:52:37 2010
     Raid Level : raid1
  Used Dev Size : 1951311040 (1860.92 GiB 1998.14 GB)
     Array Size : 1951311040 (1860.92 GiB 1998.14 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2

    Update Time : Mon Jul  2 12:39:31 2012
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 59b0bc94 - correct
         Events : 1111864


      Number   Major   Minor   RaidDevice State
this     0       8       19        0      active sync

   0     0       8       19        0      active sync
   1     1       8        3        1      active sync

Observe o RAID 1 no nível de raide (eu ainda tinha alguns superblocos com as informações antigas do ataque), mas ainda não consegui excluí-lo.

Eu finalmente fiz:

mdadm --stop --scan
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
unused devices: <none>
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
unused devices: <none>

Usar a opção --scan em vez de /dev/md5 finalmente fez isso. Eu fui então capaz de removê-lo, zerar os superquadros e recriá-lo

[root@TomNAS1 ~]# mdadm --remove /dev/md5
mdadm: error opening /dev/md5: No such file or directory
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sda
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sdb
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sdd
[root@TomNAS1 ~]# mdadm -E /dev/md5
mdadm: cannot open /dev/md5: No such file or directory

[root@TomNAS1 ~]# lsblk
NAME               MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                  8:0    0   1.8T  0 disk 
└─sda1               8:1    0   1.8T  0 part 
sdb                  8:16   0   1.8T  0 disk 
└─sdb1               8:17   0   1.8T  0 part 
sdc                  8:32   0 298.1G  0 disk 
├─sdc1               8:33   0     1G  0 part /boot
└─sdc2               8:34   0   297G  0 part 
  ├─centos-root    253:0    0   283G  0 lvm  /
  ├─centos-swap    253:1    0     4G  0 lvm  [SWAP]
  └─centos-dev_shm 253:2    0    10G  0 lvm  
sdd                  8:48   0   1.8T  0 disk 
└─sdd1               8:49   0   1.8T  0 part 
sr0                 11:0    1  1024M  0 rom  


[root@TomNAS1 ~]# mdadm --create /dev/md5 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md5 : active raid5 sdd1[3] sdb1[1] sda1[0]
      3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (475180/1953381376) finish=684.9min speed=47519K/sec
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>



[root@TomNAS1 ~]# mkfs.ext4 /dev/md5
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
244178944 inodes, 976690688 blocks
48834534 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=3124756480
29807 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
    102400000, 214990848, 512000000, 550731776, 644972544

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done       

[root@TomNAS1 ~]# 

Espero que isso ajude alguém a encontrar um problema semelhante!

    
por 03.11.2018 / 23:36