desafiando falha na recuperação do raid5

2

Eu tenho uma matriz de RAID 5 que está em estado bruto. A matriz com falha tem oito unidades de 2 TB que foram criadas ao longo do tempo na minha máquina de desktop n-2.

O array é de um computador interno que era meu computador desktop n-2. Eu coloquei oito unidades de 2 TB para ele como minhas necessidades de armazenamento cresceram. Ele tinha um processador subdimensionado e uma quantidade insuficiente de memória. Depois de encontrar o ataque em um estado degradado, tentei várias vezes para trazê-lo de volta. Isso foi tarde da noite, durante um período em que eu estava com pouco tempo e dinheiro.

Eu tenho 8 unidades em uma máquina diferente agora. No entanto, a matriz não será ativada. Eu tentei montá-lo e comecei a ler postagens de blogs e fóruns de especialistas para ver o que eu poderia fazer para trazê-lo de volta.

Há algo que eu deva tentar antes de tentar: --assemble --force ou --create --assume-clean ?

Aqui estão os detalhes sobre o array:

$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md6 : inactive sde[0](S)
      1953514496 blocks

md1 : inactive sdf[0](S) sdl[5](S) sdg[1](S) sdh[2](S) sdi[4](S)
      9766917560 blocks super 1.2

unused devices: <none>

$ sudo mdadm --examine /dev/sd[e-l] |  egrep 'Event|/dev/sd'
/dev/sde:
         Events : 2266749
/dev/sdf:
         Events : 171
/dev/sdg:
         Events : 171
/dev/sdh:
         Events : 171
/dev/sdi:
         Events : 27
/dev/sdj:
         Events : 27
/dev/sdk:
         Events : 31
/dev/sdl:
         Events : 31

$ sudo mdadm --examine /dev/sd[e-l] |  egrep 'Array'
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAA.... ('A' == active, '.' == missing)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAA.... ('A' == active, '.' == missing)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAA.... ('A' == active, '.' == missing)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAAAAAA ('A' == active, '.' == missing)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAAAAAA ('A' == active, '.' == missing)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAAA.A. ('A' == active, '.' == missing)
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
   Array State : AAAA.A. ('A' == active, '.' == missing)

$ dmesg
...
[   33.532447] scsi7 : rr62x
[   33.532641] scsi 7:0:0:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.532699] scsi 7:0:1:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.532751] scsi 7:0:2:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.532823] scsi 7:0:3:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.532871] scsi 7:0:4:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.532919] scsi 7:0:5:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.532978] scsi 7:0:6:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
[   33.533051] scsi 7:0:7:0: Direct-Access     ATA      WDC WD20EARX-00P 51.0 PQ: 0 ANSI: 5
...
[   33.535178]  sdg: unknown partition table
...
[   33.535928]  sdh: unknown partition table
[   33.536042]  sdf: unknown partition table
...
[   33.536481]  sdj: unknown partition table
[   33.536568]  sdk: unknown partition table
[   33.536624] sd 7:0:5:0: [sdj] Attached SCSI disk
[   33.536663]  sdl: unknown partition table
[   33.536775] sd 7:0:7:0: [sdl] Attached SCSI disk
[   33.536834] sd 7:0:6:0: [sdk] Attached SCSI disk
[   33.537042]  sdi: unknown partition table
[   33.537190] sd 7:0:4:0: [sdi] Attached SCSI disk
[   33.573418]  sde: sde1 sde2 < sde5 >
[   33.573753] sd 7:0:0:0: [sde] Attached SCSI disk
[   33.609751] md: bind<sdi>
[   33.612501] md: bind<sdh>
[   33.615419] md: bind<sdg>
...
[   34.032720] md: bind<sde>
...
[   39.140891] md: bind<sdl>
...
[   64.651514] systemd-udevd[484]: '/sbin/mdadm --incremental /dev/sdk' [2730] terminated by signal 9 (Killed)
[   64.651589] systemd-udevd[487]: '/sbin/mdadm --incremental /dev/sdj' [2466] terminated by signal 9 (Killed)
...
[   65.185503] systemd-udevd[488]: '/sbin/mdadm --incremental /dev/sdf' [2470] terminated by signal 9 (Killed)
...

$ sudo mdadm --examine /dev/sd[e-l]
/dev/sde:
        Version : 0.90.00
           UUID : d7b20e6c:1b319034:e5fb2d97:a1144fba
  Creation Time : Sun Apr 29 22:14:28 2012
     Raid Level : raid5
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 1

    Update Time : Fri Dec 27 15:32:54 2013
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 3a37d47e - correct
         Events : 2266749

         Layout : left-symmetric
     Chunk Size : 512K

      Number   Major   Minor   RaidDevice State
this     0       8        0        0      active sync   /dev/sda

   0     0       8        0        0      active sync   /dev/sda
   1     1       8       16        1      active sync   /dev/sdb
   2     2       8       32        2      active sync   /dev/sdc
   3     3       8       48        3      active sync   /dev/sdd
   4     4       8       64        4      active sync   /dev/sde
   5     5       8       80        5      active sync   /dev/sdf
   6     6       8       96        6      active sync   /dev/sdg
   7     7       8      112        7      active sync   /dev/sdh
/dev/sdf:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 9d365d82:23f568c5:46534949:3b2dff9f

    Update Time : Sat Mar 29 08:00:25 2014
       Checksum : 86b60aea - correct
         Events : 171

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA.... ('A' == active, '.' == missing)
/dev/sdg:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : a21fde1e:07530215:0f854883:bc6484d6

    Update Time : Sat Mar 29 08:00:25 2014
       Checksum : e354bb1d - correct
         Events : 171

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA.... ('A' == active, '.' == missing)
/dev/sdh:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : f0446a88:6a5d5026:37375e86:1bb5c6cf

    Update Time : Sat Mar 29 08:00:25 2014
       Checksum : 5a86ed57 - correct
         Events : 171

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA.... ('A' == active, '.' == missing)
/dev/sdi:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : active
    Device UUID : ec21c8aa:75a114e6:5cdb77ea:543c438b

    Update Time : Sun Jan 19 21:53:52 2014
       Checksum : 5bef1322 - correct
         Events : 27

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 4
   Array State : AAAAAAA ('A' == active, '.' == missing)
/dev/sdj:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : active
    Device UUID : db1f64fd:5c0b94e8:6f717f78:c2348f0b

    Update Time : Sun Jan 19 21:53:52 2014
       Checksum : bf5e097a - correct
         Events : 27

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 6
   Array State : AAAAAAA ('A' == active, '.' == missing)
/dev/sdk:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 5bf385b8:5747c231:196e1bd5:286bb1ef

    Update Time : Sun Jan 19 21:58:51 2014
       Checksum : 46e4d24 - correct
         Events : 31

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA.A. ('A' == active, '.' == missing)
/dev/sdl:
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 5e410da5:ef0f83c4:aa4b35d6:28916966
           Name : mjf-sysa:1
  Creation Time : Fri Dec 27 15:53:16 2013
     Raid Level : raid5
   Raid Devices : 7

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 11720297472 (11177.35 GiB 12001.58 GB)
  Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : a6a63833:7302c477:58127a50:b4204201

    Update Time : Sun Jan 19 21:58:51 2014
       Checksum : 52121556 - correct
         Events : 31

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 5
   Array State : AAAA.A. ('A' == active, '.' == missing)
    
por Michael 15.02.2015 / 04:07

2 respostas

2

Na recuperação de RAID, você nunca, nunca, nunca --create , a menos que você realmente REALMENTE saiba EXATAMENTE o que está fazendo. No entanto, sua saída parece que você já fez o --create .

O RAID no seu /dev/sde é um RAID5, criado Sun Apr 29 22:14:28 2012 , consistindo de 8 discos, conforme declarado na sua pergunta. Este RAID foi atualizado pela última vez em Fri Dec 27 15:32:54 2013 .

No entanto, seus outros discos afirmam ser RAID5, criado Fri Dec 27 15:53:16 2013 , consistindo de 7 discos. Então você já criou um novo RAID nessa sexta-feira; se você fez isso na esperança de recuperação, você provavelmente fez errado, já que não está usando as mesmas configurações mostradas pelos metadados RAID do disco /dev/sde 8 (versão de metadados incorreta, compensações, layout etc. etc.).

Isso soa como se você já tivesse feito um --create em 2013. A partir desse ponto, você estava usando o RAID5 de 7 discos.

A questão agora é: onde estão seus dados? Foi realmente no RAID de 7 discos e perdido algum tempo depois? Ou foi no RAID de 8 discos que você criou o outro RAID? A julgar pelas contagens do evento, é mais provável que tenha sido em 8 discos.

Se os dados estivessem em 8 discos (ou seja, foram perdidos em dezembro de 2013), a recuperação poderá ser impossível. A recuperação é difícil o suficiente depois de um --create estragado, especialmente se o RAID novo / errado tiver permissão para sincronizar. Mas com todos os tipos de coisas acontecendo nesse meio tempo também ... e isso nem mesmo é considerando que alguns de seus discos podem estar com defeito.

A sua situação parece caótica, por isso é impossível aconselhar quais os passos a dar ...

Não importa o que você faça, NÃO ESCREVA NESSE DISCO MAIS. Isso significa, não monte, não sincronize, não faça fsck, não monte.

Se precisar, use este método: link

Mas primeiro eu compraria outro conjunto de 8 discos (ou metade do número de discos de 4TB) e ddrescue de todos eles, pois o método acima pressupõe que nenhum de seus discos está com defeito.

    
por 15.02.2015 / 12:54
0

você diz "Depois de encontrar o ataque em um estado degradado, eu tentei várias vezes para trazê-lo de volta."

o que você fez exatamente? Se você encontrar um array degradado, precisará substituir o disco com falha. Se você não fez isso e teve outra falha no drive, seu RAID desapareceu! O RAID5 tolera apenas uma unidade com falha.

você diz que tem oito unidades de 2 TB no seu RAID5. seu / proc / mdstat contém apenas seis. onde estão os dois discos restantes? você precisa de no mínimo 7 para iniciar seu RAID5

Além disso, você tem dois dispositivos RAID md1 e md6. não deveria sde também pertencer a md1? no entanto, mesmo com sde in md1 você está perdendo uma unidade para iniciar o RAID5 com 8 unidades ...

para a próxima vez, lembre-se: "O RAID não substitui o BACKUP"

    
por 15.02.2015 / 09:26