Linux software RAID 1 - sistema de arquivos raiz torna-se somente leitura após uma falha em um disco

5

Linux software RAID 1 bloqueando para modo somente leitura

A configuração:
Unidades sata Centos 5.2, 2x 320 GB em RAID 1.

  • / dev / md0 (/ dev / sda1 + / dev / sdb1) é / boot
  • / dev / md1 (/ dev / sda1 + / dev / sdb1) é uma partição LVM que contém /, / data e swap de partições

Todos os sistemas de arquivos diferentes de swap são ext3

Tivemos problemas em vários sistemas em que uma falha em uma unidade bloqueou o sistema de arquivos raiz como somente leitura, o que obviamente causa problemas.

[root@myserver /]# mount | grep Root
/dev/mapper/VolGroup00-LogVolRoot on / type ext3 (rw)
[root@myserver /]# touch /foo
touch: cannot touch '/foo': Read-only file system

Eu posso ver que uma das partições no array está com defeito:

[root@myserver /]# mdadm --detail /dev/md1
/dev/md1:
[...]
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 1
  Spare Devices : 0
[...]
    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       18        1      active sync   /dev/sdb2
       2       8        2        -      faulty spare   /dev/sda2

Remontar como rw falha:

[root@myserver /]# mount -n -o remount /
mount: block device /dev/VolGroup00/LogVolRoot is write-protected, mounting read-only

As ferramentas LVM fornecem um erro, a menos que --ignorelockingfailure seja usado (porque eles não podem gravar em / var), mas mostre o grupo de volumes como rw:

[root@myserver /]# lvm vgdisplay
Locking type 1 initialisation failed.
[root@myserver /]# lvm pvdisplay --ignorelockingfailure
  --- Physical volume ---
  PV Name               /dev/md1
  VG Name               VolGroup00
  PV Size               279.36 GB / not usable 15.56 MB
  Allocatable           yes (but full)
  [...]

[root@myserver /]# lvm vgdisplay --ignorelockingfailure
  --- Volume group ---
  VG Name               VolGroup00
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  4
  VG Access             read/write
  VG Status             resizable
  [...]

[root@myserver /]# lvm lvdisplay /dev/VolGroup00/LogVolRoot --ignorelockingfailure
  --- Logical volume ---
  LV Name                /dev/VolGroup00/LogVolRoot
  VG Name                VolGroup00
  LV UUID                PGoY0f-rXqj-xH4v-WMbw-jy6I-nE04-yZD3Gx
  LV Write Access        read/write
  [...]

Neste caso, / boot (meta-dispositivo RAID separado) e / data (um volume lógico diferente no mesmo grupo de volumes) ainda são graváveis. A partir das ocorrências anteriores, sei que uma reinicialização trará o sistema de volta com um sistema de arquivos raiz de leitura / gravação e uma matriz RAID devidamente degradada.

Então, eu tenho duas perguntas:

1) Quando isso ocorre, como posso recuperar o sistema de arquivos raiz para leitura / gravação sem reiniciar o sistema?

2) O que precisa ser mudado para parar esse bloqueio do sistema de arquivos? Com uma falha de RAID 1 em um único disco, não queremos que o sistema de arquivos fique bloqueado, queremos que o sistema continue funcionando até que possamos substituir o disco danificado.

Edit: Eu posso ver isso no dmesg output-doe sthis indica uma falha de / dev / sda, então uma falha separada em / dev / sdb que leva ao sistema de arquivos sendo configurado para somente leitura?

sda: Current [descriptor]: sense key: Aborted Command
    Add. Sense: Recorded entity not found

Descriptor sense data with sense descriptors (in hex):
        72 0b 14 00 00 00 00 0c 00 0a 80 00 00 00 00 00
        00 03 ce 85
end_request: I/O error, dev sda, sector 249477
raid1: Disk failure on sda2, disabling device.
        Operation continuing on 1 devices
ata1: EH complete
SCSI device sda: 586072368 512-byte hdwr sectors (300069 MB)
sda: Write Protect is off
sda: Mode Sense: 00 3a 00 00
SCSI device sda: drive cache: write back
RAID1 conf printout:
 --- wd:1 rd:2
 disk 0, wo:1, o:0, dev:sda2
 disk 1, wo:0, o:1, dev:sdb2
RAID1 conf printout:
 --- wd:1 rd:2
 disk 1, wo:0, o:1, dev:sdb2
ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0
ata2.00: irq_stat 0x40000001
ata2.00: cmd ea/00:00:00:00:00/00:00:00:00:00/a0 tag 0
         res 51/04:00:34:cf:f3/00:00:00:f3:40/a3 Emask 0x1 (device error)
ata2.00: status: { DRDY ERR }
ata2.00: error: { ABRT }
ata2.00: configured for UDMA/133
ata2: EH complete



sdb: Current [descriptor]: sense key: Aborted Command
    Add. Sense: Recorded entity not found

Descriptor sense data with sense descriptors (in hex):
        72 0b 14 00 00 00 00 0c 00 0a 80 00 00 00 00 00
        01 e3 5e 2d
end_request: I/O error, dev sdb, sector 31677997
Buffer I/O error on device dm-0, logical block 3933596
lost page write due to I/O error on dm-0
ata2: EH complete
SCSI device sdb: 586072368 512-byte hdwr sectors (300069 MB)
sdb: Write Protect is off
sdb: Mode Sense: 00 3a 00 00
SCSI device sdb: drive cache: write back
ata2.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0
ata2.00: irq_stat 0x40000008
ata2.00: cmd 61/38:00:f5:d6:03/00:00:00:00:00/40 tag 0 ncq 28672 out
         res 41/10:00:f5:d6:03/00:00:00:00:00/40 Emask 0x481 (invalid argument) <F>
ata2.00: status: { DRDY ERR }
ata2.00: error: { IDNF }
ata2.00: configured for UDMA/133
sd 1:0:0:0: SCSI error: return code = 0x08000002
sdb: Current [descriptor]: sense key: Aborted Command
    Add. Sense: Recorded entity not found

Descriptor sense data with sense descriptors (in hex):
        72 0b 14 00 00 00 00 0c 00 0a 80 00 00 00 00 00
        00 03 d6 f5
end_request: I/O error, dev sdb, sector 251637
ata2: EH complete
SCSI device sdb: 586072368 512-byte hdwr sectors (300069 MB)
sdb: Write Protect is off
sdb: Mode Sense: 00 3a 00 00
SCSI device sdb: drive cache: write back
Aborting journal on device dm-0.
journal commit I/O error
ext3_abort called.
EXT3-fs error (device dm-0): ext3_journal_start_sb: Detected aborted journal
Remounting filesystem read-only
    
por DrStalker 10.08.2009 / 02:58

1 resposta

3

Sua saída dmesg deve lhe dar uma indicação de porque está sinalizando falha no PV; isso não deveria estar acontecendo. Quanto a tornar o sistema gravável novamente, chutar o VG e o LV para somente leitura e depois voltar para o read-write funciona da memória, mas a resolução real é fazer com que o md pare de se preocupar desnecessariamente com o LVM.

    
por 10.08.2009 / 03:05