Eu configurei um dispositivo RAID1 com mdadm no CentOS 7. O sistema inicializa bem quando ambos os discos são inseridos, mas trava quando há apenas um.
O erro ocorre na inicialização com a seguinte mensagem do systemd:
A start job is running for dev-md125.device (54s / no limit)
O problema aqui é a parte "no limit". Como adiciono um limite para permitir que o sistema seja inicializado?
Não há nada que eu possa ver no meu mdadm.conf:
$cat /etc/mdadm.conf
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/archive:boot level=raid1 num-devices=2 UUID=1104ad14:c378ffcd:5d2c92be:ffaace05
ARRAY /dev/md/archive:root level=raid1 num-devices=2 UUID=f30b5fcf:d194f469:404a464f:c1b0ba0a
ARRAY /dev/md/archive:swap level=raid1 num-devices=2 UUID=d6490a08:3c6a7311:cb7ddd3f:9eac77ff
Eu tentei adicionar tempos limite ao fstab:
$cat /etc/fstab
UUID=309bc32c-d75b-4ddb-9141-f234be9b72ca / xfs defaults,x-systemd.device-timeout=5 1 1
UUID=b336e2bb-f5d2-4065-9aed-9de77c02c0e2 /boot xfs defaults,x-systemd.device-timeout=5 1 2
UUID=93434118-d16e-4cc7-8ff0-c0891bcbcb72 swap swap defaults,x-systemd.device-timeout=5 0 0
Eu achei que /etc/systemd/system/sysinit.target.wants/dmraid-activation.service
poderia ser responsável, mas adicionar um tempo limite não alterou o comportamento (ainda sem limite):
$cat /etc/systemd/system/sysinit.target.wants/dmraid-activation.service
[Unit]
Description=Activation of DM RAID sets
DefaultDependencies=no
Conflicts=shutdown.target
After=systemd-udev-settle.service
Before=lvm2-activation-early.service cryptsetup.target local-fs.target shutdown.target
Wants=systemd-udev-settle.service
[Service]
ExecStart=/lib/systemd/rhel-dmraid-activation
Type=oneshot
TimeoutSec=5
[Install]
WantedBy=sysinit.target
Tags systemd raid mdadm centos software-raid