Finalmente, algum progresso!
dmraid
de fato foi o culpado, como a entrada da Wikipedia do mdadm sugerida. Eu tentei remover o dmraid pacotes (e executando update-initramfs
, embora eu não tenha certeza se isso era relevante).
Depois disso, e reinicializando, os dispositivos em /dev/mapper
sumiram (o que é bom - não preciso acessar as partições do Windows NTFS no Linux):
$ ls /dev/mapper/
control
E, mais importante, mdadm --create
funciona!
$ sudo mdadm -Cv -l1 -n2 /dev/md0 /dev/sda4 /dev/sdb4
mdadm: size set to 241095104K
mdadm: array /dev/md0 started.
Eu verifiquei /proc/mdstat
e mdadm --detail /dev/md0
e ambos mostram que está tudo bem com a matriz recém-criada.
$ cat /proc/mdstat
[..]
md0 : active raid1 sdb4[1] sda4[0]
241095104 blocks [2/2] [UU]
[==========>..........] resync = 53.1% (128205632/241095104)
finish=251.2min speed=7488K/sec
Então eu criei um sistema de arquivos na nova partição:
$ sudo mkfs.ext4 /dev/md0
E finalmente montamos a coisa em /opt
(& atualizado /etc/fstab
). (Eu poderia, claro, ter usado o LVM aqui também, mas francamente, neste caso, eu não vi nenhum ponto nisso, e eu já perdi tempo suficiente tentando fazer isso funcionar ...)
Então agora a partição RAID está pronta para uso e eu tenho bastante espaço em disco. : -)
$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sdc5 70G 52G 15G 79% /
/dev/md0 227G 188M 215G 1% /opt
Atualização : ainda há alguns problemas com este meu dispositivo RAID. Na reinicialização, ele falha ao montar mesmo que eu o tenha no fstab, e algumas vezes (após a reinicialização) ele parece estar em um estado inativo e não pode ser montado mesmo manualmente. Veja a pergunta de acompanhamento que publiquei.