Primeiro passo: não faça nada. Segundo passo: Envie um email para a lista de discussão do linux-raid.
Se a remodelação tiver realmente ficado em forma de pêra, NeilB (mantenedor do software RAID) tentará ajudar o máximo que puder.
Tudo bem postar aqui na esperança de que alguém possa ajudar ..
Então eu configurei um array RAID6 de 4x1.5TB. Conseguiu construir e tudo. Funcionou bem. Eu copiei mais duas unidades no valor de dados e, em seguida, cresci essas duas unidades na matriz. Houve alguns soluços, mas por outro lado funcionou bem e demorou muito.
Eu copiei a última unidade de dados hoje e segui os mesmos passos para transformá-la no array, e depois, claro, fiz o comando "watch etc etc" para manter um olho firme na reformulação, porque não.
.... e estava indo bem, chegou a talvez 10-11% e eu notei isso .. não estava mais atualizando.
Isso aconteceu enquanto eu estava assistindo a algo do sistema de arquivos da matriz pela rede ... então, de repente, foi bloqueado.
Eu achei que talvez algo tenha ficado inseguro com o comando watch, então o matei e usei cat /proc/mdstat
do cmdline.
e não tenho nada. Sem saída ou qualquer coisa, o cursor desce uma linha, mas nada mais acontece.
Se eu tentar um mdadm --detail /dev/md0
, a mesma coisa. Nada acontece.
se eu tentar ls dentro do diretório montado para o array, eu obtenho a listagem raiz, mas quando tento cavar mais fundo em pastas, o ls faz a mesma coisa que os dois primeiros comandos e bloqueia, exceto que eu posso nem ctrl-c fora disso.
O que eu acho que está causando o problema, é como 7 processos smbd que são status D, que devem ser deixados de quando eu estava assistindo ao arquivo de vídeo e ele foi bloqueado .. é claro que não posso matá-los, o sistema não me deixa.
É claro que agora incrivelmente paranoico que algo tenha sido TOTALMENTE em forma de pêra, e eu vou perder tudo. Eu não quero reiniciar porque eu não tenho idéia se isso vai quebrar alguma coisa.
edit: ok .. então:
Eu reiniciei (na verdade, tive que desligar a máquina. Ela não iria morrer.)
Eu encontrei isto: link
que eu tentei, sem sorte. Eu recebo
mdadm: superblock on /dev/sdb1 doesn't match others - assembly aborted
quando eu faço mdadm -E em qualquer uma das unidades, eu recebo:
/dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID :
3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : Mon Nov 23 18:59:31 2009
Raid Level : raid6 Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB) Array
Size : 7325679680 (6986.31 GiB 7501.50 GB) Raid Devices : 7 Total Devices : 7
Preferred Minor : 0
Reshape pos'n : 967965760 (923.12 GiB 991.20 GB) Delta Devices : 1 (6->7)
Update Time : Tue Dec 1 20:48:48 2009
State : active
Active Devices : 6 Working Devices : 6 Failed Devices : 1 Spare Devices : 0 Checksum : a4096474 - correct Events : 40943
Chunk Size : 64K
Number Major Minor RaidDevice State
this 5 8 17 5 active sync /dev/sdb1
0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 active sync /dev/sde1 2 2 8 81 2 active sync /dev/sdf1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 1 4 active sync /dev/sda1 5 5 8 17 5 active sync /dev/sdb1 6 6 0 0 6 faulty removed
Esse "removido com defeito" é / dev / sdc1, que foi a unidade que acabei de adicionar e estava tentando aumentar o array.
Então tentei o que encontrei aqui: link
sudo mdadm --create /dev/md0 --assume-clean --level=6 --raid-devices=7 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sda1 /dev/sdb1 missing
isso retorna:
mdadm: /dev/sdd1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sde1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdf1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdg1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sda1 appears to contain an ext2fs file system size=1565523968K mtime=Mon Nov 30 23:59:03 2009 mdadm: /dev/sda1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 Continue creating array? y mdadm: array /dev/md0 started.
cat /proc/mdstat
dá:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdb1[5] sda1[4] sdg1[3] sdf1[2] sde1[1] sdd1[0] 7325679680 blocks level 6, 64k chunk, algorithm 2 [7/6] [UUUUUU_]
e
sudo lvdisplay raid
dá:
--- Logical volume --- LV Name /dev/raid/raid VG Name raid LV UUID R1fKIQ-dS9P-iOuN-BVGW-98Wo-Cc2w-rJ5wfp LV Write Access read/write LV Status available # open 0 LV Size 5.46 TB Current LE 5589 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0
Hooray! tudo maravilhoso! NÃO.
sudo mount /dev/raid/raid /blah
me dá:
mount: wrong fs type, bad option, bad superblock on /dev/mapper/raid-raid, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so
por que se eu tivesse cabelo eu estaria puxando para fora. Socorro. Eu suponho que não redownload de 6 TB de coisas: P
Primeiro passo: não faça nada. Segundo passo: Envie um email para a lista de discussão do linux-raid.
Se a remodelação tiver realmente ficado em forma de pêra, NeilB (mantenedor do software RAID) tentará ajudar o máximo que puder.
Qual sistema de arquivos foi formatado usando? Você já tentou fsck -Vr no dispositivo para ver o que diz?
Se não fosse 6 TB, sugiro fazer uma imagem de backup usando dd e gzip, mas duvido que você tenha o armazenamento externo para fazer isso.
Boa sorte.