recuperando o raid5 (mdraid) após a instalação limpa do SO (Ubuntu Server 12.04)

0

========

Depois de reinstalar o sistema operacional, estou tendo problemas para acessar os dados armazenados em um grupo RAID5 construído em 8 HDDs usando o mdraid. Conselho muito apreciado!

Eu tenho um servidor NAS doméstico baseado no Intel Atom (WiFi Zotac NM10-DTX), 8 HDD Caviar WDD 2 TB conectados via HighPoint-RocketRAID 2680, bem como um SSD de 64GB para o sistema operacional.

A configuração estava funcionando bem por quase 2 anos (no Ubuntu Server 10.4 LTS) e usando o mdraid (descobri que poderia obter melhor desempenho usando o adaptador RAID apenas para conectar as unidades e usar o mdraid para construir um array RAID5 de 14TB) .

Recentemente, comecei a experimentar alguns problemas de desempenho (leituras e gravações ficaram lentas - tanto ao acessar os dados de outros hosts na minha rede quanto ao executar o dd localmente no servidor NAS), então decidi atualizar o sistema operacional. while (eu só tinha atualizações automáticas de segurança). A atualização deu terrivelmente errado com o sistema operacional nem mesmo inicializando após a atualização - então eu decidi fazer uma instalação limpa do Ubuntu Server 12.04.

Obrigado ao askubuntu Eu consegui construir o driver para o RocketRAID 2680 e eu posso ver todos os 8 drives (/ dev / sdb através de / dev / sdi) e rodando mdadm --examinter retorna:

/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Creation Time : Wed Jan  5 16:47:34 2011
Raid Level : raid5
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0

Update Time : Tue Oct 15 18:36:41 2013
State : clean
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Checksum : d1fdf40 - correct
Events : 1010

Layout : left-symmetric
Chunk Size : 64K

Number   Major   Minor   RaidDevice State
0     0       8       17        0      active sync   /dev/sdb1
1     1       8       33        1      active sync   /dev/sdc1
2     2       8       49        2      active sync   /dev/sdd1
3     3       8       65        3      active sync   /dev/sde1
4     4       8       81        4      active sync   /dev/sdf1
5     5       8       97        5      active sync   /dev/sdg1
6     6       8      113        6      active sync   /dev/sdh1
7     7       8      129        7      active sync   /dev/sdi1

Também consegui ativar / ded / md0 executando:

mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1

... retornando:

mdadm: /dev/md0 has been started with 8 drives.

+ AGORA PARA O PROBLEMA: +

Enquanto o array parece ter sido reiniciado com sucesso, eu não vejo minha partição de 14 TB que eu criei há dois anos (e usado desde então para armazenar todos os meus dados). A execução do cfdisk mostra apenas uma única partição do Linux com ~ 1,8 TB de capacidade e ~ 12 TB de espaço não utilizado:

Disk Drive: /dev/md0
Size: 14002195070976 bytes, 14002.1 GB
Heads: 2   Sectors per Track: 4   Cylinders: 3418504656

Name     Flags  Part Type   FS Type     [Label]     Size (MB)
--------------------------------------------------------------------------
                Pri/Log     Free Space              0.06                  
md0p1           Primary     Linux                   1750274.33
                Pri/Log     Free Space              12251920.69

O mesmo também aparece ao executar o mdadm --detail / dev / md0

/dev/md0:
Version : 0.90    
Creation Time : Wed Jan  5 16:47:34 2011
Raid Level : raid5
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Wed Oct 16 11:07:25 2013
State : clean 
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Events : 0.1010

Number   Major   Minor   RaidDevice State
0       8       17        0      active sync   /dev/sdb1
1       8       33        1      active sync   /dev/sdc1
2       8       49        2      active sync   /dev/sdd1
3       8       65        3      active sync   /dev/sde1
4       8       81        4      active sync   /dev/sdf1
5       8       97        5      active sync   /dev/sdg1
6       8      113        6      active sync   /dev/sdh1
7       8      129        7      active sync   /dev/sdi1

Se bem entendi - a diferença entre "Array Size" e "Used Device Size" (2TB vs 14TB) significa que há um problema. Eu não quero tentar montar a partição até que eu entenda o que está acontecendo (para evitar quaisquer alterações nos dados que possam inibir a obtenção de acesso novamente ao meu grupo RAID).

Qualquer conselho seria muito bem-vindo, já que tenho usado esse servidor NAS para todos os backups e mídias digitais.

Esqueci de jogar um último interruptor ou estou totalmente ferrado?

    
por Maciej Remiszewski 16.10.2013 / 12:39

1 resposta

0

Tamanho do dispositivo usado significa que cada disco individual é de 2 TB. Não use cfdisk , pois é um PDV com bugs antigo que entende apenas a tabela de partições msdos, que não suporta discos > 2 TB Use parted , que suporta gpt.

Mais importante, não acho que você tenha uma tabela de partições no array raid. É mais típico apenas formatar o array inteiro em vez de particioná-lo, então tente montar o array.

    
por psusi 16.10.2013 / 15:23