O pvmove é muito lento. Você provavelmente será mais rápido se recriar seu layout durante um pequeno tempo de inatividade.
Se nenhum tempo de inatividade for possível, eu recriaria o md334 como espelho distribuído com discos raid1 degradados como discos subjacentes (ou seja, use md para Raid 10 - não LVM). Então faça o seu pvmove para md334, livre-se do md312, limpe seus discos md-assinaturas e adicione os dois discos então livres para seus dois raid1s degradados (e volte para a redundância total).
Não tenho certeza se você pode empilhar dispositivos MD, mas não vejo razão para que isso não seja possível. Durante o pvmove você não terá redundância.
Atualização 2011-08-17: Acabei de testar o procedimento com o CentOS 5.6 - funciona. Aqui estão os resultados:
cat /proc/mdstat
Personalities : [raid1] [raid0]
md10 : active raid0 md3[1] md1[0] 1792 blocks 64k chunks
md3 : active raid1 loop0[1] loop1[0] 960 blocks [2/2] [UU]
md1 : active raid1 loop2[1] loop3[0] 960 blocks [2/2] [UU]
Para simular sua configuração eu primeiro configuro o / dev / md0 com um espelho que consiste em loop0 e loop2. Eu configurei um VG com md0 como disco. Então eu criei um LV dentro desse VG, criei um sistema de arquivos no LV e o montei, escrevi alguns arquivos para ele.
Então eu configurei / dev / md1 e md3 como dispositivos raid1 degradados que consistem em loop1 resp. loop3. Depois disso, criei um dispositivo raid10, construindo um raid0 fora de md1 e md3.
Eu adicionei md10 ao VG. Então pvmove md0 para md10. Removido o md0 do VG. Parou md0, limpou loop0 e loop2. Redimensionou o raid1 degradado para que eles pudessem usar dois dispositivos. Hot loop0 adicionado para md3 e loop2 para md1.
O sistema de arquivos ainda estava montado durante todo o processo.