Estou viajando a trabalho e só agora tenho tempo para responder. Eu escolhi responder minha própria pergunta caso isso seja útil para os outros mais tarde.
Primeiro, os comentários que afirmam que o RAID10 do Linux md-raid em dois dispositivos é impossível estavam errados. Para ser claro, o raid10 do md-raid do Linux não é um raid1 + 0 padrão. O ataque do Md-raid10 equivale essencialmente a um raid1, striped. Se você gastar alguns minutos pensando sobre os benefícios do raid1 e os benefícios do raid0, fica claro que eles não são mutuamente exclusivos e poderiam ser facilmente combinados. De fato, a Wikipedia trata especificamente dessa situação: link
É realmente o raid10? NÃO. Ainda espelha e listra? Sim. As cópias de cada bloco aparecem em mais de um dispositivo, oferecendo um espelho real com alguns benefícios de velocidade? Talvez. Os comentários referentes aos tempos de busca do uso de raid10 em duas unidades podem de fato prevalecer, eliminando os benefícios de desempenho, você pode ver mais sobre isso aqui: link O array pode ser dimensionado e expandido adicionando drives? Sim. Há algo de errado em usar dois discos para um array md-raid 10? Por todas as contas, absolutamente não, mas você pode não ver a velocidade prevista aumenta.
Em segundo lugar, o ZFS. Hoje, o ZFS no Linux aceitou uma ação que introduz criptografia. Fantástico! Eu acho, no entanto, que o ZFS é frequentemente tratado como a solução para todas as questões e preocupações do nível fs. Para minhas necessidades, ele gera um nível de complexidade para a instalação que eu prefiro evitar. Ele também tende a usar muita memória e pode, sob certas cargas de trabalho, ser muito lento. Fontes (alguns desses testes têm problemas em sua metodologia, mas dão uma impressão geral mais ampla): [Eu ia postar alguns links aqui, mas não posso, pois ainda não tenho 10 posts - um pouco de googling deve render vários artigos relevantes]
Passando para a minha pergunta: você pode alinhar as listras do xfs com a distribuição do md-raid? A resposta parece ser não. Depois de googling considerável, muito cutucando ao redor e assim por diante, parece que o xfs alinha-se inteligentemente quando você constrói o fs diretamente na partição. De fato, ext4 faz isso também. No entanto, uma vez que você camada lvm e luks, xfs (e ext4) não podem mais detectar a faixa de partição. Ao definir o tamanho da faixa ao criar a partição xfs, você pode especificar uma largura de faixa, mas não pode forçar a faixa a alinhar. Alguns sugeriram mover lvm, raid e outros cabeçalhos para o final das partições e depois compensar por 1MB (ou alguma quantidade divisível pelo tamanho da faixa), mas não há garantia real de que, como lvm atribui mais espaço a um volume, ele fará então, em alinhamento com a faixa de ataque.
Para esclarecer, isso afeta as topologias distribuídas md-raid com sistemas de arquivos de distribuição. Só porque eu especifiquei duas unidades na minha pergunta e comentários girando em torno disso, isso resultaria em 4 unidades, 8 unidades ou 800 unidades. Ele também apareceria em qualquer configuração de raid que usasse striping, seja raid0, raid5, raid6 ou raid10. Em última análise, isso é o apelo de usar sistemas como zfs ou btrfs que integram particionamento, gerenciamento de dispositivos / pooling, etc.
Então, o que eu vou fazer? A estabilidade e confiabilidade comprovada do md-raid, lvm e xfs são muito atraentes. Os tempos de busca associados ao md-raid raid10 não são atraentes. Eu provavelmente usarei a configuração raid1 em lvm, que é bem suportada pelo meu sistema operacional escolhido, o centos. Vou então criar meus volumes lvm e, nesses, criar meus volumes luks. Nestes, vou construir por sistemas de arquivos xfs. Estes dois últimos estão um pouco no ar. O novo recurso de criptografia no ext4 é atraente, e eu posso substituir os bits luks + xfs pelo ext4 criptografado.