Os volumes lógicos do LVM não são ativados na inicialização após o upgrade ativo de 11.04 a 11.10

2

Eu atualizei meu servidor de 11.04 para 11.10 (64 bits) usando sudo do-release-upgrade

A máquina agora pára durante a inicialização porque não consegue encontrar certos volumes lógicos em / mnt. Quando isso acontece, apertei "m" para descer para um shell de root, e vejo o seguinte (me perdoe por imprecisões, estou recriando isso):

$ lvs
  LV       VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  audio    vg   -wi--- 372.53g                                      
  home     vg   -wi-ao 186.26g                                      
  swap     vg   -wi-ao   3.72g                                      

Os dispositivos de bloco correspondentes em / dev estão faltando para "áudio".

Se eu correr:

$ vgchange -a y
$ lvs
  LV       VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  audio    vg   -wi-ao 372.53g                                      
  home     vg   -wi-ao 186.26g                                      
  swap     vg   -wi-ao   3.72g                                      

Em seguida, todos os LVs são ativados e o sistema continua a inicializar perfeitamente após sair do shell de manutenção da raiz.

O que está acontecendo e como eu configuraria os LVs para estarem sempre ativos na inicialização?

Atualize para responder a perguntas levantadas:

Existe um grupo de volumes:

# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  vg     1   6   0 wz--n- 1.68t    0 
# pvs
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2   vg   lvm2 a-   1.68t    0 

Em um array MD do RAID1 que consiste em um par de discos rígidos SATA correspondentes:

 # cat /proc/mdstat 
 Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
 md2 : active raid1 sda3[0] sdb3[1]
       1806932928 blocks [2/2] [UU]

 md1 : active raid1 sda2[0] sdb2[1]
       146484160 blocks [2/2] [UU]

 md3 : active raid1 sda4[0] sdb4[1]
       95168 blocks [2/2] [UU]

 unused devices: <none>

Então:

 # mount
 /dev/md1 on / type ext4 (rw,errors=remount-ro)
 proc on /proc type proc (rw,noexec,nosuid,nodev)
 sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
 fusectl on /sys/fs/fuse/connections type fusectl (rw)
 none on /sys/kernel/debug type debugfs (rw)
 none on /sys/kernel/security type securityfs (rw)
 udev on /dev type devtmpfs (rw,mode=0755)
 devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
 tmpfs on /run type tmpfs (rw,noexec,nosuid,size=10%,mode=0755)
 none on /run/lock type tmpfs (rw,noexec,nosuid,nodev,size=5242880)
 none on /run/shm type tmpfs (rw,nosuid,nodev)
 /dev/md3 on /boot type ext3 (rw)
 /dev/mapper/vg-home on /home type reiserfs (rw)
 /dev/mapper/vg-audio on /mnt/audio type reiserfs (rw)
 rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 nfsd on /proc/fs/nfsd type nfsd (rw)

Atualize com o lvdisplay completo - como suspeita, as partições que funcionam são as primeiras da lista. Não consigo ver nada de estranho eu mesmo. Eu incluí a lista completa aqui - todas as minhas partições LVM.

Isto é da máquina em execução, se a saída do estado quebrado for útil e precisar de algum tempo para obter.

# lvdisplay 
  --- Logical volume ---
  LV Name                /dev/vg/swap
  VG Name                vg
  LV UUID                INuOTR-gwB8-Z0RW-lGHM-qtRF-Xc7D-Bv43ah
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                3.72 GiB
  Current LE             953
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Name                /dev/vg/home
  VG Name                vg
  LV UUID                7L34YS-Neh0-V5OL-bFfd-TmO4-8CkV-GwXuRL
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                186.26 GiB
  Current LE             47683
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

  --- Logical volume ---
  LV Name                /dev/vg/audio
  VG Name                vg
  LV UUID                AX1ZG5-vwyk-mYVl-DBHt-Rgp2-DSwg-oDZlbS
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:2

  --- Logical volume ---
  LV Name                /dev/vg/vmware
  VG Name                vg
  LV UUID                bj0m1h-jndV-GWU8-aePm-gaoo-Q0pE-cWhWj2
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:3

  --- Logical volume ---
  LV Name                /dev/vg/backup
  VG Name                vg
  LV UUID                PHDnjD-8uT8-yHB2-8SBW-d7E1-1Zws-Qx0Tp8
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                93.13 GiB
  Current LE             23841
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:4

  --- Logical volume ---
  LV Name                /dev/vg/download
  VG Name                vg
  LV UUID                64Your-pvNG-7EvG-exns-eK9A-vMDD-eozIBM
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                695.05 GiB
  Current LE             177934
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:5

Atualização 2012/01/28: uma reinicialização deu uma oportunidade para olhar para a máquina em seu estado quebrado.

Não sei se é relevante, mas a máquina foi desligada de forma limpa, mas os sistemas de arquivos não foram limpos ao iniciar novamente.

# lvs
  LV       VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  audio    vg   -wi--- 372.53g                                      
  backup   vg   -wi---  93.13g                                      
  download vg   -wi--- 695.05g                                      
  home     vg   -wi-ao 186.26g                                      
  swap     vg   -wi-ao   3.72g                                      
  vmware   vg   -wi--- 372.53g

Embora talvez seja de interesse (download de nota):

# lvs --segments
  LV       VG   Attr   #Str Type   SSize  
  audio    vg   -wi---    1 linear 372.53g
  backup   vg   -wi---    1 linear  93.13g
  download vg   -wi---    1 linear 508.79g
  download vg   -wi---    1 linear 186.26g
  home     vg   -wi-ao    1 linear 186.26g
  swap     vg   -wi-ao    1 linear   3.72g
  vmware   vg   -wi---    1 linear 372.53g

Mais:

# lvdisplay 
  --- Logical volume ---
  LV Name                /dev/vg/swap
  VG Name                vg
  LV UUID                INuOTR-gwB8-Z0RW-lGHM-qtRF-Xc7D-Bv43ah
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                3.72 GiB
  Current LE             953
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Name                /dev/vg/home
  VG Name                vg
  LV UUID                7L34YS-Neh0-V5OL-bFfd-TmO4-8CkV-GwXuRL
  LV Write Access        read/write
  LV Status              available
  # open                 2
  LV Size                186.26 GiB
  Current LE             47683
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

  --- Logical volume ---
  LV Name                /dev/vg/audio
  VG Name                vg
  LV UUID                AX1ZG5-vwyk-mYVl-DBHt-Rgp2-DSwg-oDZlbS
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Name                /dev/vg/vmware
  VG Name                vg
  LV UUID                bj0m1h-jndV-GWU8-aePm-gaoo-Q0pE-cWhWj2
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                372.53 GiB
  Current LE             95367
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Name                /dev/vg/backup
  VG Name                vg
  LV UUID                PHDnjD-8uT8-yHB2-8SBW-d7E1-1Zws-Qx0Tp8
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                93.13 GiB
  Current LE             23841
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Name                /dev/vg/download
  VG Name                vg
  LV UUID                64Your-pvNG-7EvG-exns-eK9A-vMDD-eozIBM
  LV Write Access        read/write
  LV Status              NOT available
  LV Size                695.05 GiB
  Current LE             177934
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto


# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  vg     1   6   0 wz--n- 1.68t    0 

# pvs
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2   vg   lvm2 a-   1.68t    0 

Do dmesg:

[    0.908322] ata3.00: ATA-8: ST32000542AS, CC34, max UDMA/133
[    0.908325] ata3.00: 3907029168 sectors, multi 16: LBA48 NCQ (depth 0/32)
[    0.908536] ata3.01: ATA-8: ST32000542AS, CC34, max UDMA/133
[    0.908538] ata3.01: 3907029168 sectors, multi 16: LBA48 NCQ (depth 0/32)
[    0.924307] ata3.00: configured for UDMA/133
[    0.940315] ata3.01: configured for UDMA/133
[    0.940408] scsi 2:0:0:0: Direct-Access     ATA      ST32000542AS     CC34 PQ: 0 ANSI: 5
[    0.940503] sd 2:0:0:0: [sda] 3907029168 512-byte logical blocks: (2.00 TB/1.81 TiB)
[    0.940541] sd 2:0:0:0: Attached scsi generic sg0 type 0
[    0.940544] sd 2:0:0:0: [sda] Write Protect is off
[    0.940546] sd 2:0:0:0: [sda] Mode Sense: 00 3a 00 00
[    0.940564] sd 2:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[    0.940611] scsi 2:0:1:0: Direct-Access     ATA      ST32000542AS     CC34 PQ: 0 ANSI: 5
[    0.940699] sd 2:0:1:0: Attached scsi generic sg1 type 0
[    0.940728] sd 2:0:1:0: [sdb] 3907029168 512-byte logical blocks: (2.00 TB/1.81 TiB)
[    0.945319] sd 2:0:1:0: [sdb] Write Protect is off
[    0.945322] sd 2:0:1:0: [sdb] Mode Sense: 00 3a 00 00
[    0.945660] sd 2:0:1:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[    0.993794]  sda: sda1 sda2 sda3 sda4
[    1.023974] sd 2:0:0:0: [sda] Attached SCSI disk
[    1.024277]  sdb: sdb1 sdb2 sdb3 sdb4
[    1.024529] sd 2:0:1:0: [sdb] Attached SCSI disk


[    1.537688] md: bind<sdb3>
[    1.538922] bio: create slab <bio-1> at 1
[    1.538983] md/raid1:md2: active with 2 out of 2 mirrors
[    1.539005] md2: detected capacity change from 0 to 1850299318272
[    1.540678]  md2: unknown partition table
[    1.540851] md: bind<sdb4>
[    1.542231] md/raid1:md3: active with 2 out of 2 mirrors
[    1.542245] md3: detected capacity change from 0 to 97452032
[    1.543867] md: bind<sdb2>
[    1.544680]  md3: unknown partition table
[    1.545627] md/raid1:md1: active with 2 out of 2 mirrors
[    1.545642] md1: detected capacity change from 0 to 149999779840
[    1.556008]    generic_sse:  9824.000 MB/sec
[    1.556010] xor: using function: generic_sse (9824.000 MB/sec)
[    1.556721] md: raid6 personality registered for level 6
[    1.556723] md: raid5 personality registered for level 5
[    1.556724] md: raid4 personality registered for level 4
[    1.560491] md: raid10 personality registered for level 10
[    1.571416]  md1: unknown partition table


[    1.935835] EXT4-fs (md1): INFO: recovery required on readonly filesystem
[    1.935838] EXT4-fs (md1): write access will be enabled during recovery
[    2.901833] EXT4-fs (md1): orphan cleanup on readonly fs
[    2.901840] EXT4-fs (md1): ext4_orphan_cleanup: deleting unreferenced inode 4981215
[    2.901904] EXT4-fs (md1): ext4_orphan_cleanup: deleting unreferenced inode 8127848
[    2.901944] EXT4-fs (md1): 2 orphan inodes deleted
[    2.901946] EXT4-fs (md1): recovery complete
[    3.343830] EXT4-fs (md1): mounted filesystem with ordered data mode. Opts: (null)
[   64.851211] Adding 3903484k swap on /dev/mapper/vg-swap.  Priority:-1 extents:1 across:3903484k 

[   67.600045] EXT4-fs (md1): re-mounted. Opts: errors=remount-ro
[   68.459775] EXT3-fs: barriers not enabled
[   68.460520] kjournald starting.  Commit interval 5 seconds
[   68.461183] EXT3-fs (md3): using internal journal
[   68.461187] EXT3-fs (md3): mounted filesystem with ordered data mode
[  130.280048] REISERFS (device dm-1): found reiserfs format "3.6" with standard journal
[  130.280060] REISERFS (device dm-1): using ordered data mode
[  130.284596] REISERFS (device dm-1): journal params: device dm-1, size 8192, journal first block 18, max trans len 1024, max batch 900, max commit age 30, max trans age 30
[  130.284918] REISERFS (device dm-1): checking transaction log (dm-1)
[  130.450867] REISERFS (device dm-1): Using r5 hash to sort names
    
por nOw2 30.12.2011 / 00:58

2 respostas

2

A máquina tornou-se gradualmente pior e pior quando as atualizações foram instaladas. Ele foi reinicializado esta manhã e não inicializou novamente - / home não seria ativado corretamente. E então dbus erros, etc etc.

9 horas depois, eu fiz uma reinstalação completa do 11.10 nas mesmas partições e elas agora funcionam bem. Muito estranho, mas parece que esta foi a solução.

Obrigado ppetraki, eu concordo com seus pontos com base no desempenho vai olhar para isso quando a máquina é substituída.

    
por nOw2 18.02.2012 / 22:31
1

Nada de erro / aviso nos logs está se destacando. No entanto, eu notei que você criou 3 MDs, todos usando o mesmo armazenamento de apoio, com essencialmente 3 sistemas de arquivos diferentes (ext3, ext4, reiserfs (talvez VMware bruto também?)). Gostaria de saber se todas as estratégias de write-back de E / S concorrentes, combinadas com vários bloqueios / filas para o mesmo repositório de apoio estão eliminando suas tentativas de usar os MDs adjacentes sob certas condições?

Isso causaria um blowback no sistema de arquivos como um diário ou writeback com falha e se manifestaria no LVM como uma falha na montagem ou ativação do mapeamento.

Idealmente, sua configuração deve ficar assim:

  

sda [sda1 {disco inteiro SPAN - 1-2%}]

     

sdb [sdb1 {disco inteiro SPAN - 1-2%}]

     

md1 (RAID1) [sda1 sdb1]

     

vg [md1]

Você pode inicializar diretamente de um root lvm respaldado por um md, eu faço isso sozinho. O motivo pelo qual você não ocupa todo o disco é que, se algum dia você obtiver blocos defeituosos e usar a ferramenta de reparo de baixo nível do fornecedor, às vezes ficará sem blocos livres e os blocos do comendador de ferramentas em uso, o que altera o tamanho o disco, e quebrando sua tabela de partição e certamente MD no processo. Veja Recuperação Superblock do MDADM

Se você ainda tiver problemas com um MD, em vez de 3, então um dos seus sistemas de arquivos ou VMware está sendo impertinente e alguém está privando seus irmãos, ou há um problema real com sua loja de apoio que torna todos os outros uma vítima.

    
por ppetraki 29.01.2012 / 20:01