mdadm / LVM / RAID issue

1

Tudo bem postar aqui na esperança de que alguém possa ajudar ..

Então eu configurei um array RAID6 de 4x1.5TB. Conseguiu construir e tudo. Funcionou bem. Eu copiei mais duas unidades no valor de dados e, em seguida, cresci essas duas unidades na matriz. Houve alguns soluços, mas por outro lado funcionou bem e demorou muito.

Eu copiei a última unidade de dados hoje e segui os mesmos passos para transformá-la no array, e depois, claro, fiz o comando "watch etc etc" para manter um olho firme na reformulação, porque não.

.... e estava indo bem, chegou a talvez 10-11% e eu notei isso .. não estava mais atualizando.

Isso aconteceu enquanto eu estava assistindo a algo do sistema de arquivos da matriz pela rede ... então, de repente, foi bloqueado.

Eu achei que talvez algo tenha ficado inseguro com o comando watch, então o matei e usei cat /proc/mdstat do cmdline.

e não tenho nada. Sem saída ou qualquer coisa, o cursor desce uma linha, mas nada mais acontece.

Se eu tentar um mdadm --detail /dev/md0 , a mesma coisa. Nada acontece.

se eu tentar ls dentro do diretório montado para o array, eu obtenho a listagem raiz, mas quando tento cavar mais fundo em pastas, o ls faz a mesma coisa que os dois primeiros comandos e bloqueia, exceto que eu posso nem ctrl-c fora disso.

O que eu acho que está causando o problema, é como 7 processos smbd que são status D, que devem ser deixados de quando eu estava assistindo ao arquivo de vídeo e ele foi bloqueado .. é claro que não posso matá-los, o sistema não me deixa.

É claro que agora incrivelmente paranoico que algo tenha sido TOTALMENTE em forma de pêra, e eu vou perder tudo. Eu não quero reiniciar porque eu não tenho idéia se isso vai quebrar alguma coisa.

edit: ok .. então:

Eu reiniciei (na verdade, tive que desligar a máquina. Ela não iria morrer.)

Eu encontrei isto: link

que eu tentei, sem sorte. Eu recebo

mdadm: superblock on /dev/sdb1 doesn't match others - assembly aborted

quando eu faço mdadm -E em qualquer uma das unidades, eu recebo:

/dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID : 
3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : Mon Nov 23 18:59:31 2009 
Raid Level : raid6 Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB) Array 
Size : 7325679680 (6986.31 GiB 7501.50 GB) Raid Devices : 7 Total Devices : 7 
Preferred Minor : 0

Reshape pos'n : 967965760 (923.12 GiB 991.20 GB) Delta Devices : 1 (6->7)

Update Time : Tue Dec  1 20:48:48 2009
      State : active

Active Devices : 6 Working Devices : 6 Failed Devices : 1 Spare Devices : 0 Checksum : a4096474 - correct Events : 40943

 Chunk Size : 64K

  Number   Major   Minor   RaidDevice State

this 5 8 17 5 active sync /dev/sdb1

0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 active sync /dev/sde1 2 2 8 81 2 active sync /dev/sdf1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 1 4 active sync /dev/sda1 5 5 8 17 5 active sync /dev/sdb1 6 6 0 0 6 faulty removed

Esse "removido com defeito" é / dev / sdc1, que foi a unidade que acabei de adicionar e estava tentando aumentar o array.

Então tentei o que encontrei aqui: link

sudo mdadm --create /dev/md0 --assume-clean --level=6 --raid-devices=7 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sda1 /dev/sdb1 missing

isso retorna:

mdadm: /dev/sdd1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sde1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdf1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdg1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sda1 appears to contain an ext2fs file system size=1565523968K mtime=Mon Nov 30 23:59:03 2009 mdadm: /dev/sda1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 Continue creating array? y mdadm: array /dev/md0 started.

cat /proc/mdstat

dá:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdb1[5] sda1[4] sdg1[3] sdf1[2] sde1[1] sdd1[0] 7325679680 blocks level 6, 64k chunk, algorithm 2 [7/6] [UUUUUU_]

e

sudo lvdisplay raid

dá:

--- Logical volume --- LV Name /dev/raid/raid VG Name raid LV UUID R1fKIQ-dS9P-iOuN-BVGW-98Wo-Cc2w-rJ5wfp LV Write Access read/write LV Status available # open 0 LV Size 5.46 TB Current LE 5589 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0

Hooray! tudo maravilhoso! NÃO.

sudo mount /dev/raid/raid /blah

me dá:

mount: wrong fs type, bad option, bad superblock on /dev/mapper/raid-raid, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so

por que se eu tivesse cabelo eu estaria puxando para fora. Socorro. Eu suponho que não redownload de 6 TB de coisas: P

    
por Tim S. 02.12.2009 / 22:09

2 respostas

1

Primeiro passo: não faça nada. Segundo passo: Envie um email para a lista de discussão do linux-raid.

Se a remodelação tiver realmente ficado em forma de pêra, NeilB (mantenedor do software RAID) tentará ajudar o máximo que puder.

    
por 08.12.2009 / 10:30
0

Qual sistema de arquivos foi formatado usando? Você já tentou fsck -Vr no dispositivo para ver o que diz?

Se não fosse 6 TB, sugiro fazer uma imagem de backup usando dd e gzip, mas duvido que você tenha o armazenamento externo para fazer isso.

Boa sorte.

    
por 02.12.2009 / 22:19