Eu tenho trabalhado em várias postagens sobre essa questão, mas quero uma verificação de integridade antes de tentar encontrar uma maneira de remontar essa matriz.
Eu tenho uma compilação Mint 17 com uma matriz RAID 5 para armazenamento de dados (executando VMs e armazenando imagens de VM para uso com o Virtualbox). Depois de perder os arquivos inicialmente, descobri que uma das unidades de 3 TB que tenho em uma matriz criada pelo mdadm, cuspia o manequim. Eu realmente não percebi isso na Drive GUI até que alguém apontou que a 3ª unidade estava reportando 3 GB's e não TB's. Eu fisicamente alterei a identificação da unidade com base em seu número de série relatado pelo mdadm.
Portanto, atualmente eu tenho o mdstat relatando as duas unidades como sobressalentes
$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdb[1](S) sda[0](S)
5860271024 blocks super 1.2
Preciso preparar a nova unidade antes de poder adicioná-la à matriz? Adicionando uma partição gpt primeiro? Eu tento adicionar a unidade nova:
$ sudo mdadm --add /dev/md0 /dev/sdc
mdadm: cannot get array info for /dev/md0
$ sudo mdadm --assemble --scan
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.
Existe também algo sobre o ID da matriz que foi alterado a partir deste comando, você pode ver que seu / dev / md / 0 não está sendo usado / dev / md0
md / 0 não existe. Então não tenho certeza de como isso está sendo puxado.
# mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.2 UUID=3f251f4b:44593116:9404ff46:f0bd1bd0 name=Pihalx:0
As duas unidades restantes parecem ter informações RAID
mdadm --examine / dev / sda
/dev/sda:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 3f251f4b:44593116:9404ff46:f0bd1bd0
Name : Pihalx:0
Creation Time : Wed Jan 8 11:36:24 2014
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 5860270720 (5588.79 GiB 6000.92 GB)
Used Dev Size : 5860270720 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 1ea09fae:09203daa:4cc4c7b4:88a77160
Update Time : Tue Sep 29 10:21:44 2015
Checksum : 84b10850 - correct
Events : 2950793
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : A.. ('A' == active, '.' == missing)
mdadm --examine / dev / sdb
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 3f251f4b:44593116:9404ff46:f0bd1bd0
Name : Pihalx:0
Creation Time : Wed Jan 8 11:36:24 2014
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 5860270720 (5588.79 GiB 6000.92 GB)
Used Dev Size : 5860270720 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : active
Device UUID : 3f87a0c3:f66d8e05:3a95bc2c:41580160
Update Time : Mon Sep 28 22:11:57 2015
Checksum : 6c8a13e8 - correct
Events : 2950776
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AA. ('A' == active, '.' == missing)
Eu tentei atualizar meu arquivo mdadm.conf seguindo este postar sem sucesso ..
Alguma sugestão de como eu posso tentar trazer este Raid de volta aos dados intactos?
TIA
Tags raid linux software-raid