Eu tenho o OpenSuSE 11.3 rodando como um host Xen em uma máquina com discos SAS 8x296GB Cheetah 15k.6 SAS, dos quais 4 são espelhados, e os outros 4 são listrados. Estou usando o LVM para gerenciar os discos e eles são formatados com o OCFS2. Eu configurei um domu do Xen como um Volume Lógico no Grupo de Volumes "vg" e usei o XFS para o sistema de arquivos domU. Depois de configurar o domU, fiz um instantâneo do LVM e o armazenei no Grupo de Volumes "vg". Na época em que criei o instantâneo, fiz questão de montá-lo para que eu soubesse que funcionava.
No host Xen, há também um Volume Lógico para a partição / home, que um casal domina. Para encurtar a história, eu pensei que estava em um domU, mas estava realmente em dom0 e emiti "rm -rf / home /" para limpar o diretório inicial. (Este domU não montou o LV / home.) Embora nada de valor tenha sido perdido, notei um erro de E / S quando o comando rm retornou.
Agora, ontem, fui montar o instantâneo do LVM e obtive
stage:/ # mount -t xfs /dev/vg/xen-util-configured /mnt/template
mount: /dev/mapper/vg-xen--util--configured: can't read superblock
Então eu tento xfs_check e recebo
xfs_check: /dev/vg/xen-util-configured is invalid (cannot read first 512 bytes)
Similarmente para xfs_repair
Phase 1 - find and verify superblock...
superblock read failed, offset 0, size 524288, ag 0, rval -1
fatal error -- Input/output error
Eu não consigo nem inserir o primeiro bloco, já que ele relata
stage:/ # dd if=/dev/vg/xen-util-configured of=foo bs=512 count=1
dd: reading '/dev/vg/xen-util-configured': Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 0.00100721 s, 0.0 kB/s
relatórios dmesg
[ 1875.331675] Buffer I/O error on device dm-12, logical block 0
[ 1875.331687] Buffer I/O error on device dm-12, logical block 1
[ 1875.331696] Buffer I/O error on device dm-12, logical block 2
[ 1875.331704] Buffer I/O error on device dm-12, logical block 3
dm-12 é um link simbólico para / dev / vg / xen-util-configurado (o instantâneo do LVM que estou tentando montar).
O que eu estou tentando averiguar aqui é se o (s) disco (s) realmente tem um setor defeituoso em algum lugar, ou se o XFS fs do instantâneo está cheio (e se for, como obtê-lo de volta). Eu não gosto que eu não posso nem dd bloquear 0 do instantâneo. O controlador RAID não reporta nenhuma unidade degradada durante a inicialização. Estou evitando o uso do SeaTools SeaTools porque o manual declara que os testes são "potencial ou completamente destrutivos para dados em unidades SCSI ou SAS".
Editar:
O vgdisplay mostra o seguinte:
vgdisplay
--- Volume group ---
VG Name vg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 39
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 12
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 1.07 TiB
PE Size 4.00 MiB
Total PE 281322
Alloc PE / Size 131616 / 514.12 GiB
Free PE / Size 149706 / 584.79 GiB
VG UUID eqvoEL-4qhV-AREf-7p3D-xr08-6VHh-iz13w7
Então parece que eu tenho mais de 1 / 2TB livre.
Desculpas pelo longo discurso ...