Eu tentei mudar minha configuração do RAID5 de um NAS para algo similar e algo deu errado.
No começo, ele funcionava no novo NAS, então não começaria mais.
Esta é a situação:
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : inactive sdc1[3](S) sdb2[1](S) sda2[0](S)
8789366740 blocks super 1.0
unused devices: <none>
# mdadm --examine --scan
ARRAY /dev/md/1 metadata=1.0 UUID=b57aca26:65609077:9fe7889a:6241c63a
name=NAS:1
# mdadm --assemble /dev/md1
# mdadm --assemble --scan
# mdadm --run /dev/md1
mdadm: failed to run array /dev/md1: Input/output error
# mdadm --assemble --scan
mdadm: /dev/md/1 is already in use.
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : inactive sdb2[1]
2929550672 blocks super 1.0
unused devices: <none>
# cat /etc/mdadm.conf
ARRAY /dev/md/1 metadata=1.0 UUID=b57aca26:65609077:9fe7889a:6241c63a name=NAS:1
DEVICES /dev/sd*
# mdadm --examine /dev/sda2
/dev/sda2:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : b57aca26:65609077:9fe7889a:6241c63a
Name : NAS:1 (local to host NAS)
Creation Time : Fri Aug 3 08:13:23 2018
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5859101344 (2793.84 GiB 2999.86 GB)
Array Size : 11718201344 (5587.67 GiB 5999.72 GB)
Used Dev Size : 5859100672 (2793.84 GiB 2999.86 GB)
Super Offset : 5859101600 sectors
State : clean
Device UUID : c844b66b:fe21447d:e74c865a:751baa07
Internal Bitmap : -16 sectors from superblock
Update Time : Tue Aug 28 00:04:18 2018
Checksum : 703361ce - correct
Events : 78636
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
# mdadm --examine /dev/sdb2
/dev/sdb2:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : b57aca26:65609077:9fe7889a:6241c63a
Name : NAS:1 (local to host NAS)
Creation Time : Fri Aug 3 08:13:23 2018
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5859101344 (2793.84 GiB 2999.86 GB)
Array Size : 11718201344 (5587.67 GiB 5999.72 GB)
Used Dev Size : 5859100672 (2793.84 GiB 2999.86 GB)
Super Offset : 5859101600 sectors
State : clean
Device UUID : bb700941:772cb7b0:db32a940:e902d0bd
Internal Bitmap : -16 sectors from superblock
Update Time : Tue Aug 28 07:47:49 2018
Checksum : 153fd25e - correct
Events : 78660
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .A. ('A' == active, '.' == missing)
# mdadm --examine /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : b57aca26:65609077:9fe7889a:6241c63a
Name : NAS:1 (local to host NAS)
Creation Time : Fri Aug 3 08:13:23 2018
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860530792 (2794.52 GiB 3000.59 GB)
Array Size : 11718201344 (5587.67 GiB 5999.72 GB)
Used Dev Size : 5859100672 (2793.84 GiB 2999.86 GB)
Super Offset : 5860531048 sectors
State : clean
Device UUID : 26c3e73d:e2ca62ec:f9b4561f:0437b54b
Internal Bitmap : -16 sectors from superblock
Update Time : Tue Aug 28 00:05:19 2018
Checksum : ba8bac8e - correct
Events : 78651
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : .AA ('A' == active, '.' == missing)
Posso "excluir" / dev / md1 e criar / dev / md0 adicionando os discos um por um sem perder os dados?
Algumas informações sobre a configuração:
1º NAS D-Link DNS-320 HWrev.B executando firmware Alt-F 1.0
2º NAS D-Link DNS-320L HWrev.A executando firmare Alt-F 1.0
uname -a
Linux NAS 4.4.86 #1 Fri Sep 22 20:41:13 WEST 2017 armv5tel GNU/Linux
ATUALIZAÇÃO:
Os Eventos e o Tempo de Atualização de / dev / sda2 e / dev / sdb2 estão desalinhados. Isso acontece porque, por algum motivo aleatório, o / dev / sda2 costumava sair do array. Então, a única chance que tenho é reiniciar o array usando / dev / sdc1, que é um disco USB conectado através de um gabinete externo. Ele não é particionado da mesma maneira que os discos internos por causa do próprio gabinete (é de 3 TB, então há o problema de 512 KB)
UPDATE2: (para responder ao comentário do cdhowie) Mudei os discos do nas para uma instalação ao vivo do lubuntu 18.04.1 com o mdadm versão 4.1-rc1 - 2018-03-22
lubuntu@lubuntu:~$ sudo sudo mdadm --assemble --scan
lubuntu@lubuntu:~$ sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.0
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : NAS:1
UUID : b57aca26:65609077:9fe7889a:6241c63a
Events : 78636
Number Major Minor RaidDevice
- 8 50 - /dev/sdd2
- 8 34 - /dev/sdc2
- 8 81 - /dev/sdf1