MDADM raid “lost” após a reinicialização

1

Estou com medo agora, então espero que você possa esclarecer meu problema!

Algumas semanas atrás, comprei uma nova unidade de 2 TB e decidi configurar um software RAID 5 com MDADM no meu HTPC (unidade sdb , sdc e sde ). Então eu pesquisei rapidamente no Google e encontrei este tutorial

Eu então procuro seguir as instruções, criar uma nova matriz, ver /proc/mdstat para o status, etc. e depois de algumas horas minha matriz ficou completa! Alegria em todos os lugares, tudo foi bom, e meus arquivos foram alegremente acessíveis.

MAS !!

Ontem, eu tive que desligar meu HTPC para mudar um fã. Após a reinicialização, oh meu oh meu, meu RAID não estava montando. E já que sou um "noob" com mdadm, estou totalmente perdido.

Quando estou fazendo um fdisk -l , aqui está o resultado:

xxxxx@HTPC:~$ sudo fdisk -l /dev/sdb /dev/sdc /dev/sde
Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: FD6454FC-BD66-4AB5-8970-28CF6A25D840

Device     Start        End    Sectors  Size Type
/dev/sdb1   2048 3907028991 3907026944  1.8T Linux RAID


Disk /dev/sdc: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: F94D03A1-D7BE-416C-8336-75F1F47D2FD1

Device     Start        End    Sectors  Size Type
/dev/sdc1   2048 3907029134 3907027087  1.8T Linux filesystem


Disk /dev/sde: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

Eu sou mais do que confuso! Por alguma razão, não apenas 2 das 3 unidades possuem uma partição, mas também aquelas que eu deletei em primeiro lugar quando segui o tutorial. A razão que /dev/sdb1 mostra como "Linux RAID" é depois de seguir outra solução no superusuário ( O novo mdadm RAID desaparece após a reinicialização sem sucesso.

E aqui está o resultado depois de executar um mdadm --assemble :

xxxxx@HTPC:/etc/mdadm$ sudo mdadm --assemble --scan -v
mdadm: looking for devices for /dev/md0
mdadm: No super block found on /dev/dm-1 (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/dm-1
mdadm: No super block found on /dev/dm-0 (Expected magic a92b4efc, got 0000040e)
mdadm: no RAID superblock on /dev/dm-0
mdadm: cannot open device /dev/sr0: No medium found
mdadm: No super block found on /dev/sdd1 (Expected magic a92b4efc, got 00000401)
mdadm: no RAID superblock on /dev/sdd1
mdadm: No super block found on /dev/sdd (Expected magic a92b4efc, got d07f4513)
mdadm: no RAID superblock on /dev/sdd
mdadm: No super block found on /dev/sdc1 (Expected magic a92b4efc, got 00000401)
mdadm: no RAID superblock on /dev/sdc1
mdadm: No super block found on /dev/sdc (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdc
mdadm: No super block found on /dev/sdb1 (Expected magic a92b4efc, got 00000401)
mdadm: no RAID superblock on /dev/sdb1
mdadm: No super block found on /dev/sdb (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdb
mdadm: No super block found on /dev/sda1 (Expected magic a92b4efc, got f18558c3)
mdadm: no RAID superblock on /dev/sda1
mdadm: No super block found on /dev/sda (Expected magic a92b4efc, got 70ce7eb3)
mdadm: no RAID superblock on /dev/sda
mdadm: /dev/sde is identified as a member of /dev/md0, slot 2.
mdadm: no uptodate device for slot 0 of /dev/md0
mdadm: no uptodate device for slot 1 of /dev/md0
mdadm: added /dev/sde to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

Já verifiquei com smartmontools e todas as unidades são "healty". Existe alguma coisa que poderia ser feita para salvar meus dados? Depois de algumas pesquisas, parece que o tutorial não foi o melhor, mas ... diabos, tudo estava funcionando por um tempo.

ATUALIZAÇÃO: Por pura sorte, eu encontrei o comando exato que usei para criar o array no meu bash_history!

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb /dev/sdc /dev/sde

Talvez, apenas talvez, eu deva executá-lo novamente para que meu RAID seja trazido de volta à vida? Minha única preocupação é recuperar "alguns" dados nessas unidades. Farei uma configuração de folha em branco depois disso.

    
por Patrick Pruneau 25.01.2018 / 02:35

2 respostas

1

Infelizmente, o seu conjunto de ataques desapareceu. Eu entendo que você forneceu fdisk -l saída depois que você tentou outra solução, que, infelizmente, limpou um dos HD. No entanto também o outro está em má forma. Depois de criar um array RAID, você deve sempre gerar o arquivo mdadm.conf, mas este não é o ponto crucial aqui, já que o mdadm deve ser capaz de reconstruir um array RAID, a partir do superblock, que está faltando em dois dos três HD. Eu não tenho certeza do que aconteceu, mas meu suspeito é que você só precisava remontá-lo devido a falta do mdadm.conf, enquanto você começou a emitir comandos malucos, que infelizmente destruíram sua matriz

    
por 25.01.2018 / 14:03
0

Bem, acontece que em um último momento, eu tentei executar novamente o comando "create" que eu usei anteriormente para construir o array em primeiro lugar e ..... adivinha quem recebeu os dados de volta !!

Vamos dizer que vou fazer backup de todas essas coisas boas e reiniciar meu array do zero. Obrigado a todos pela ajuda!

    
por 25.01.2018 / 20:42