Unidades RAID conectadas a dispositivos separados

0

De alguma forma, as duas unidades na configuração RAID 1 se tornaram conectadas a dois dispositivos ( md0 , md127 ):

~# lsblk -o NAME,SIZE,MOUNTPOINT,STATE,FSTYPE,MODEL,SERIAL,UUID,LABEL
NAME          SIZE MOUNTPOINT STATE   FSTYPE            MODEL            SERIAL     UUID                                 LABEL
sda           1.8T            running linux_raid_member ST32000542AS                69c415bb-716b-8e0b-b03d-721888a9cb05 turris:0
'-md0         1.8T                    btrfs                                         47039540-3842-4b2b-be2b-b8f76e88189b 
sdb           1.8T            running linux_raid_member ST32000542AS                69c415bb-716b-8e0b-b03d-721888a9cb05 turris:0
'-md127       1.8T /mnt/raid          btrfs                                         47039540-3842-4b2b-be2b-b8f76e88189b 

Por que isso aconteceu? Como faço para recuperá-los para um único dispositivo ( md0 )?

** editar **

mdadm -E /dev/sda :

~# mdadm -E /dev/sda
/dev/sda:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 69c415bb:716b8e0b:b03d7218:88a9cb05
           Name : turris:0  (local to host turris)
  Creation Time : Sun Jul 23 11:52:07 2017
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 1953383360 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906766720 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 4ed3485a:ce6205f4:ecd1f9d0:6e4fb2b5

    Update Time : Wed Oct 11 21:18:53 2017
       Checksum : 8a845e99 - correct
         Events : 623


   Device Role : Active device 0
   Array State : A. ('A' == active, '.' == missing)

mdadm -E /dev/sdb :

~# mdadm -E /dev/sdb
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 69c415bb:716b8e0b:b03d7218:88a9cb05
           Name : turris:0  (local to host turris)
  Creation Time : Sun Jul 23 11:52:07 2017
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 1953383360 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906766720 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 7c8a1f7a:184b254c:1b25397c:8162faa4

    Update Time : Wed Oct 11 05:58:52 2017
       Checksum : 9d058b99 - correct
         Events : 345


   Device Role : Active device 1
   Array State : .A ('A' == active, '.' == missing)

mdadm -D /dev/md0 :

~# mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sun Jul 23 11:52:07 2017
     Raid Level : raid1
     Array Size : 1953383360 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 1953383360 (1862.89 GiB 2000.26 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Oct 11 21:18:53 2017
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : turris:0  (local to host turris)
           UUID : 69c415bb:716b8e0b:b03d7218:88a9cb05
         Events : 623

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       0        0        1      removed

mdadm -D /dev/md127 :

~# mdadm -D /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sun Jul 23 11:52:07 2017
     Raid Level : raid1
     Array Size : 1953383360 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 1953383360 (1862.89 GiB 2000.26 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Oct 11 05:58:52 2017
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : turris:0  (local to host turris)
           UUID : 69c415bb:716b8e0b:b03d7218:88a9cb05
         Events : 345

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       16        1      active sync   /dev/sdb

** editar 1 **

Conteúdo de /etc/rc.local :

# Put your custom commands here that should be executed once
# the system init finished. By default this file does nothing.

# Disable NCQ (fix RAID issue)
echo 1 > /sys/block/sda/device/queue_depth
echo 1 > /sys/block/sdb/device/queue_depth
# /fix

# start RAID array
mdadm --assemble --scan

exit 0

Conteúdo de /etc/mdadm/mdadm.conf :

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md/0 metadata=1.2 name=turris:0 UUID=69c415bb:716b8e0b:b03d7218:88a9cb05

Conteúdo (um pouco redigido) de /etc/aliases :

root: cra***@*****.com
    
por craig 13.10.2017 / 00:10

1 resposta

1
Events : 623
Events : 345

Neste ponto, suas duas unidades estão suficientemente fora de sincronia e não há uma maneira fácil de recuperá-las. Supondo que as contagens de eventos reflitam com precisão a idade relativa dos dados nas unidades, recomendo limpar /dev/sdb e adicioná-lo novamente a /dev/md0 :

  1. Verifique se você tem um backup atualizado de seus dados.
  2. Derrubar /dev/md127 : umount /mnt/raid , mdadm --stop /dev/md127
  3. Torne o /dev/sdb mais parecido com um membro do RAID: wipefs -a /dev/sdb (o caminho rápido) ou dd if=/dev/zero of=/dev/sdb (o caminho completo).
  4. Adicione a /dev/md0 como um novo dispositivo: mdadm --manage /dev/md0 --add /dev/sdb
  5. Aguarde a reconstrução da matriz.
  6. Enquanto aguarda, ative o monitoramento de falhas: nano -w /etc/mdadm.conf e adicione a linha MAILADDR [email protected] em algum ponto no final e, em seguida, ative o serviço de monitoramento mdadm (isso é específico da distribuição).
  7. Ativar /dev/md0 : mdadm --run /dev/md0 (pode não ser necessário) seguido por mount /dev/md0 /mnt/raid .

Quanto ao que causou isso, acredito que em determinado momento você teve uma falha temporária de /dev/sdb (as unidades da Seagate tendem a fazer isso) e caiu fora da matriz até a próxima vez que você reiniciou o computador. Como as contagens de evento eram diferentes, mdadm não conseguiu colocar as duas unidades em uma única matriz RAID-1 e, em vez disso, decidiu criar duas matrizes RAID-1 de unidade única.

    
por 17.10.2017 / 00:32