Os 2 métodos que eu uso para determinar a saúde de um RAID são os seguintes.
/ proc / mdstat
$ cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[1] sda1[0]
976759936 blocks [2/2] [UU]
mdadm --detail
$ mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Sat Jan 26 09:14:11 2008
Raid Level : raid1
Array Size : 976759936 (931.51 GiB 1000.20 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon May 26 13:05:25 2014
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : 37a3bfcb:41393031:23c133e6:3b879f08
Events : 0.2182840
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Se houver algum problema com o seu RAID, esses comandos mostrarão que o RAID não está funcionando e quais membros (unidades) estão falhando ou falharam.