Eu tive esse problema. Eu tinha dois SATA espelhados no CentOS 6.5 e atualizei para 7.5. Meu controlador 3Ware não era mais suportado.
NOTA: Eu tinha um controlador RAID de 3Ware, mas usei o mdadm para fazer um RAID de software em 6.5, por isso nunca tive um RAID de hardware criado.
Então, enquanto eu estava na loja de computadores recebendo um novo controlador PCI SATA, decidi adicionar outra unidade e ir para a configuração do RAID 5. Não consegui fazer um mkfs no volume; ele disse que outro processo estava em uso. Eu não pude pará-lo nem removê-lo.
Enquanto tentava tudo o que conseguia pensar, recebi esta mensagem:
mdadm --fail /dev/sda
mdadm: /dev/sda does not appear to be an md device
[root@TomNAS1 ~]# mdadm /dev/md5
/dev/md5: 3725.78GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail.
/dev/md5: device 0 in 2 device undetected raid1 /dev/md/2_0. Use mdadm --examine for more detail.
Então eu fiz:
mdadm --examine /dev/md5
/dev/md5:
Magic : a92b4efc
Version : 0.90.00
UUID : ffd28566:a7b7ad42:b26b218f:452df0ca
Creation Time : Wed Dec 8 12:52:37 2010
Raid Level : raid1
Used Dev Size : 1951311040 (1860.92 GiB 1998.14 GB)
Array Size : 1951311040 (1860.92 GiB 1998.14 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Update Time : Mon Jul 2 12:39:31 2012
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Checksum : 59b0bc94 - correct
Events : 1111864
Number Major Minor RaidDevice State
this 0 8 19 0 active sync
0 0 8 19 0 active sync
1 1 8 3 1 active sync
Observe o RAID 1 no nível de raide (eu ainda tinha alguns superblocos com as informações antigas do ataque), mas ainda não consegui excluí-lo.
Eu finalmente fiz:
mdadm --stop --scan
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
unused devices: <none>
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
unused devices: <none>
Usar a opção --scan
em vez de /dev/md5
finalmente fez isso. Eu fui então capaz de removê-lo, zerar os superquadros e recriá-lo
[root@TomNAS1 ~]# mdadm --remove /dev/md5
mdadm: error opening /dev/md5: No such file or directory
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sda
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sdb
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sdd
[root@TomNAS1 ~]# mdadm -E /dev/md5
mdadm: cannot open /dev/md5: No such file or directory
[root@TomNAS1 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.8T 0 disk
└─sda1 8:1 0 1.8T 0 part
sdb 8:16 0 1.8T 0 disk
└─sdb1 8:17 0 1.8T 0 part
sdc 8:32 0 298.1G 0 disk
├─sdc1 8:33 0 1G 0 part /boot
└─sdc2 8:34 0 297G 0 part
├─centos-root 253:0 0 283G 0 lvm /
├─centos-swap 253:1 0 4G 0 lvm [SWAP]
└─centos-dev_shm 253:2 0 10G 0 lvm
sdd 8:48 0 1.8T 0 disk
└─sdd1 8:49 0 1.8T 0 part
sr0 11:0 1 1024M 0 rom
[root@TomNAS1 ~]# mdadm --create /dev/md5 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md5 : active raid5 sdd1[3] sdb1[1] sda1[0]
3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[>....................] recovery = 0.0% (475180/1953381376) finish=684.9min speed=47519K/sec
bitmap: 0/15 pages [0KB], 65536KB chunk
unused devices: <none>
[root@TomNAS1 ~]# mkfs.ext4 /dev/md5
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
244178944 inodes, 976690688 blocks
48834534 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=3124756480
29807 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
[root@TomNAS1 ~]#
Espero que isso ajude alguém a encontrar um problema semelhante!