adicionou novas unidades para invadir 5 com formato incorreto, em seguida, removeu-as e quebrou a invasão 5

1

Agradecemos antecipadamente por qualquer ajuda.

Em resumo: eu adicionei 3 novos discos para invadir 5 array. Então, pensando que eles não foram adicionados, eu os removi. Agora a matriz não funciona. O que posso fazer para recuperar o array?

DETALHES:

Formatei 3 novos discos rígidos com "autodetect raid fd linux" e os adicionei a uma configuração existente de raid 5 que foi originalmente configurada usando "ext4". Quando eu descobri que o tamanho disponível não aumentava, eu percebi meus mkfs inconsistentes e me apressei e removi os 3 novos drives (sem pensar!) E fiz mkfs.ext4 neles. Após a reinicialização, a matriz não seria mais montada. Antes da instalação, o md estava funcionando bem. Eu estou me chutando ....

Desde que eu estava montando a matriz para / home eu tenho que entrar usando liveUSB.

Eu tentei forçar a montagem e forçar a criação com as três unidades, pois, como o tamanho da matriz nunca foi realmente alterado, todos os dados ainda devem estar nos três discos originais. Nada parece funcionar.

Mudar o número de dispositivos de ataque para "3" seria suficiente para recuperar minha matriz? E se sim, como eu faria isso?

Qualquer ajuda seria REALMENTE REALMENTE apreciada.

Veja o que eu tentei e pude ver:

sudo mdadm --grow /dev/md0 --raid-devices=3
mdadm: /dev/md0 is not an active md array - aborting

ubuntu@ubuntu:~$ sudo mount /dev/md0
mount: can't find /dev/md0 in /etc/fstab or /etc/mtab

ubuntu@ubuntu:~$ sudo mdadm -D /dev/md0
mdadm: md device /dev/md0 does not appear to be active.


ubuntu@ubuntu:~$ sudo mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.2 UUID=eba025dd:a180e5f2:7b9be516:8710a212 name=ubuntu:0



ubuntu@ubuntu:~$ cat /proc/mdstat
Personalities : 
md0 : inactive sda1[0](S) sdc1[3](S) sdb1[1](S)
      5860537344 blocks super 1.2

unused devices: <none>


ubuntu@ubuntu:~$ sudo mdadm -E /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : eba025dd:a180e5f2:7b9be516:8710a212
           Name : ubuntu:0  (local to host ubuntu)
  Creation Time : Tue Dec 24 21:25:20 2013
     Raid Level : raid5
   Raid Devices : 6

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 19535119360 (9315.07 GiB 10001.98 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 44b40ccc:faf41272:21a6a41a:6f2c4798

    Update Time : Wed Dec 10 22:50:15 2014
       Checksum : 36b18224 - correct
         Events : 7953

         Layout : left-symmetric
     Chunk Size : 512K

    Device Role : Active device 0
    Array State : AAA... ('A' == active, '.' == missing)

As outras duas unidades listam informações basicamente semelhantes.

Então tentei algumas outras coisas:

ubuntu@ubuntu:~$ sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdc1
mdadm: /dev/sda1 appears to contain an ext2fs file system
    size=1953513472K  mtime=Thu Jan  1 00:00:00 1970
mdadm: /dev/sda1 appears to be part of a raid array:
    level=raid5 devices=6 ctime=Tue Dec 24 21:25:20 2013
mdadm: /dev/sdb1 appears to contain an ext2fs file system
    size=1953513472K  mtime=Thu Jan  1 00:00:00 1970
mdadm: /dev/sdb1 appears to be part of a raid array:
    level=raid5 devices=6 ctime=Tue Dec 24 21:25:20 2013
mdadm: /dev/sdc1 appears to contain an ext2fs file system
    size=1953513472K  mtime=Thu Jan  1 00:00:00 1970
mdadm: /dev/sdc1 appears to be part of a raid array:
    level=raid5 devices=6 ctime=Tue Dec 24 21:25:20 2013
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

ubuntu@ubuntu:~$ sudo mount /dev/md0 /home
mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so



ubuntu@ubuntu:~$ dmesg |tail -30
[173789.684714] md: bind<sdc1>
[173789.690771] async_tx: api initialized (async)
[173789.764322] raid6: sse2x1    3216 MB/s
[173789.832280] raid6: sse2x2    4045 MB/s
[173789.900231] raid6: sse2x4    4717 MB/s
[173789.900233] raid6: using algorithm sse2x4 (4717 MB/s)
[173789.900236] raid6: using ssse3x2 recovery algorithm
[173789.908445] md: raid6 personality registered for level 6
[173789.908450] md: raid5 personality registered for level 5
[173789.908452] md: raid4 personality registered for level 4
[173789.909108] md/raid:md0: device sdb1 operational as raid disk 1
[173789.909114] md/raid:md0: device sda1 operational as raid disk 0
[173789.909798] md/raid:md0: allocated 3282kB
[173789.909948] md/raid:md0: raid level 5 active with 2 out of 3 devices, algorithm 2
[173789.909952] RAID conf printout:
[173789.909954]  --- level:5 rd:3 wd:2
[173789.909956]  disk 0, o:1, dev:sda1
[173789.909959]  disk 1, o:1, dev:sdb1
[173789.909997] md0: detected capacity change from 0 to 4000792444928
[173789.910032] RAID conf printout:
[173789.910038]  --- level:5 rd:3 wd:2
[173789.910042]  disk 0, o:1, dev:sda1
[173789.910045]  disk 1, o:1, dev:sdb1
[173789.910047]  disk 2, o:1, dev:sdc1
[173789.910176] md: recovery of RAID array md0
[173789.910183] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
[173789.910187] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[173789.910204] md: using 128k window, over a total of 1953511936k.
[173790.155769]  md0: unknown partition table
[173803.332895] EXT4-fs (md0): bad geometry: block count 2441889920 exceeds size of device (976755968 blocks)
    
por Paulina 13.12.2014 / 01:19

0 respostas

Tags