Como administrador do sistema, uma coisa que faço frequentemente é aumentar o tamanho do LV. Na maioria dos casos eu tenho que estender primeiro o VG, adicionando um novo disco (estamos falando de máquinas virtuais). Eu tenho muitos casos em que o LV foi previamente estendido várias vezes:
# lvs -a -o+devices,seg_size,seg_pe_ranges /dev/mapper/data_vg-sapdata1_lv
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert Devices SSize PE Ranges
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(20224) 100.00g /dev/sdd:20224-45823
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(125184) 10.00g /dev/sdd:125184-127743
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(135424) 10.00g /dev/sdd:135424-137983
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(14592) 22.00g /dev/sdd:14592-20223
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(186624) 8.00g /dev/sdd:186624-188671
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(19713) 10.00g /dev/sde:19713-22272
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(29953) 8.00g /dev/sde:29953-32000
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(38145) 20.00g /dev/sde:38145-43264
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(58625) 20.99g /dev/sde:58625-63998
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdg(0) 29.01g /dev/sdg:0-7425
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(20479) 20.00g /dev/sdf:20479-25598
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(35839) 40.00g /dev/sdf:35839-46078
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdh(0) 39.00g /dev/sdh:0-9983
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdg(30719) 40.00g /dev/sdg:30719-40958
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdg(102399) 40.00g /dev/sdg:102399-112638
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(46079) 50.00g /dev/sdf:46079-58878
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(97279) 20.00g /dev/sdf:97279-102398
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(73727) 30.00g /dev/sde:73727-81406
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(89087) 25.00g /dev/sde:89087-95486
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdk(0) 40.00g /dev/sdk:0-10239
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdk(30720) 50.00g /dev/sdk:30720-43519
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdk(80645) 20.00g /dev/sdk:80645-85764
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(102399) 10.00g /dev/sdf:102399-104958
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdl(0) 30.00g /dev/sdl:0-7679
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdl(26886) 58.00g /dev/sdl:26886-41733
# pvs | grep data_vg
/dev/sdd data_vg lvm2 a-- 750.00g 0
/dev/sde data_vg lvm2 a-- 450.00g 0
/dev/sdf data_vg lvm2 a-- 450.00g 0
/dev/sdg data_vg lvm2 a-- 450.00g 10.00g
/dev/sdh data_vg lvm2 a-- 400.00g 0
/dev/sdk data_vg lvm2 a-- 400.00g 0
/dev/sdl data_vg lvm2 a-- 450.00g 112.97g
Tenho certeza que esse desempenho de IO diminuirá, por isso, quero migrar todos os volumes físicos para reduzir o número de discos dentro do grupo de volume e a dispersão de dados entre os PVs / regiões.
Pergunta:
Qual é a melhor opção para aumentar o desempenho de IO, migrar tudo para um único PV (800Gb x 1) ou migrar para vários (200Gb x 4)? ... Eu quero fazê-lo no modo LV linear, não modo listrado.
Tags performance lvm io pv