Ubuntu Server 14.04 - O RAID5 criado com o mdadm desaparece após a reinicialização

5

Esta é a minha primeira pergunta sobre o superusuário, então se eu esqueci de mencionar algo, por favor, pergunte.

Estou tentando configurar um servidor doméstico que será usado como servidor de arquivos e servidor de mídia. Eu instalei o Ubuntu Server 14.04 e agora estou tentando configurar um Raid5 que consiste em um total de 5 discos, usando o mdadm. Depois que o ataque foi criado, eu posso usá-lo e também posso acessar o Raid de outros computadores. Depois de reiniciar o servidor, o Raid não aparece mais. Eu também não consegui montar o ataque.

Eu fiz os seguintes passos:

Crie o RAID

mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda /dev/sdc /dev/sdd /dev/sde /dev/sdf

Após o RAID ter sido concluído ( watch cat /proc/mdstat ), eu armazeno as configurações RAID

mdadm --detail --scan >> /etc/mdadm/mdadm.conf

Então eu removi algumas partes da entrada no mdadm.conf. O arquivo resultante é o seguinte:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
#DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Fri, 14 Mar 2014 23:38:10 +0100
# by mkconf $Id$
ARRAY /dev/md0 UUID=b73a8b66:0681239e:2c1dd406:4907f892

Uma verificação se o RAID está funcionando ( mdadm --detail /dev/md0 ) retorna o seguinte:

/dev/md0:
Version : 1.2
Creation Time : Sat Apr 19 15:49:03 2014
Raid Level : raid5
Array Size : 7813531648 (7451.56 GiB 8001.06 GB)
Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Sat Apr 19 22:13:37 2014
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Name : roembelHomeserver:0  (local to host roembelHomeserver)
UUID : c29ca6ea:951be1e7:ee0911e9:32b215c8
Events : 67

Number   Major   Minor   RaidDevice State
0       8        0        0      active sync   /dev/sda
1       8       32        1      active sync   /dev/sdc
2       8       48        2      active sync   /dev/sdd
3       8       64        3      active sync   /dev/sde
5       8       80        4      active sync   /dev/sdf

Tanto quanto eu posso dizer, tudo isso parece bom. Em uma próxima etapa, criei o sistema de arquivos:

mke2fs -t ext4 /dev/md0

Isso resulta na seguinte saída:

mke2fs 1.42.8 (20-Jun-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=512 blocks
244174848 inodes, 1953382912 blocks
97669145 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
59613 block groups
32768 blocks per group, 32768 fragments per group
4096 inodes per group
Superblock backups stored on blocks:
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
    102400000, 214990848, 512000000, 550731776, 644972544, 1934917632

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

Em seguida, mudei para fstab adicionando a seguinte entrada no final do arquivo:

/dev/md0    /data    ext4    defaults,nobootwait,no fail     0    2

Depois de montar o RAID ( mount -a ) eu poderia usá-lo, criar arquivos, acessá-lo de outros PCs ...

Agora vem o problema:
Após a reinicialização do servidor ( reboot now ), o RAID não existe mais, por exemplo,
 - Não / dev / md0
 - empty / proc / mdstat (além das personalidades)
 - df -h não mostra o raid
 - mdadm --assemble --scan não faz nada

Alguém tem alguma sugestão? Eu fiz algo errado?

    
por user318354 25.04.2014 / 22:36

4 respostas

2

Parece que você esqueceu uma etapa - informando ao initramfs para carregar sua matriz na inicialização. Todos os seus passos estavam corretos e em ordem cronológica, mas parece que você perdeu o passo final. Mas, dado o fato de que não sei qual é o status atual do seu servidor, sugiro que você tente o seguinte:

Inicialize e digite

mdadm --detail --scan

Você vê alguma coisa? Em caso afirmativo, sua matriz está lá e deve funcionar (ou seja, a solução abaixo prolly não ajudará). Eu estou supondo que quando você reiniciar, você não está vendo sua unidade RAID em tudo. Se isso é verdade,

Certifique-se de que o daemon do MDADM esteja executando ps aux | grep mdadm

Isso mostrará se algum processo MDADM está em execução (se você não vir resultado, inicie o MDADM)

  1. Verifique se a matriz está montada mount -a

  2. Atualize o initramfs update-initramfs -u

  3. Verifique se o MDADM não está executando uma sincronização ou reconstruindo watch cat /proc/mdstat

Se houver algum processamento, deixe-o terminar para não estragar sua matriz

Reinicie e teste

    
por 30.04.2014 / 02:37
0

Resolvi o problema na minha máquina usando partições em vez de unidades brutas. Então, ao invés de

 mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda /dev/sdc /dev/sdd /dev/sde /dev/sdf

seria

mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1

Certifique-se de definir o sinalizador de ataque (usei o gparted) em cada partição. Meu entendimento é que isso permite que o demônio mdadm veja as partições e reinicialize o array na inicialização.

    
por 25.08.2015 / 19:43
0

Meu disco RAID também não foi montado após a reinicialização. No entanto, notei no dmesg que após a reinicialização, o / dev / md0 foi nomeado como / deb / md127. Eu consertei o fstab de acordo, o que resolveu o problema.

    
por 16.03.2016 / 08:28
-1

O mdadm pode ser montado com mdadm --assemble --verbose / dev / md0 após a reinicialização. Eu acho que há algo quebrado nos estágios iniciais da seqüência de inicialização.

    
por 07.11.2015 / 01:07