Em geral, você deve tentar ter o menor número possível de VGs (os VGs podem ser divididos em vários PVs com o vgextend). Isso torna as coisas mais fáceis de gerenciar quando um único VG abrange todos os PVs e você pode simplesmente usar o pvmove para migrar LVs para um dispositivo físico diferente.
O que eu descobri ao longo dos anos com o Software RAID, à medida que você entra nos maiores tamanhos de disco, é que dividir os drives maiores em partições menores e depois o RAID em todos os drives funciona melhor do ponto de vista prático. À custa de um pouco de complexidade.Exemplo: (8) drives de 4 TB, montados em um array de software RAID10 com (1) spare. O espaço total da rede será de cerca de 13 TB, não importa como dividimos os discos. Mas se formos com uma grande partição em cada unidade, o tempo de reconstrução será de cerca de 8 a 10 horas para o array. E se falhar ou você precisar reinicializar, o mdadm geralmente começará do início.
Mas se você dividir isso em (4) partições por disco e construir (4) matrizes RAID10 (/ dev / md101 = sd [abcdefgh] 1, / dev / md102 = sd [abcdefgh] 2, etc.), Em seguida, cada matriz será reconstruída em cerca de 2 a 2,5 horas. O tempo total de reconstrução ainda é de 8 a 10 horas. E se o mdadm for interrompido por uma reinicialização, ele não precisará refazer as matrizes que já foram concluídas. Note que todos os (4) vetores mdadm são PVs e todos devem pertencer ao mesmo VG.
Há também um pequeno benefício de desempenho, porque você poderia forçar todos os seus LVs de acesso pesado para o mesmo PV (/ dev / md101) que colocaria os blocos nos primeiros 25% do disco. Isso pode resultar em um pequeno aumento de velocidade. Você também pode usar o pvmove para desfragmentar os LVs movendo-os ao redor.