NAS Raid 5 Recuperação usando o mdadm: volume e problemas de montagem, por favor ajude

1

Olá, esta é a minha primeira incursão no Ubuntu, ou em qualquer outra forma de Linix, assim como minha primeira tentativa de recuperar uma invasão perdida, mas tenho um estudo bastante rápido. Eu tenho um WD ShareSpace de 8 TB, quatro unidades de 2 TB configuradas no RAID 5 com duas unidades "com falha" (talvez não). Estou desesperado para recuperar meus dados. Além de todas as músicas, filmes, jogos, etc, todas as minhas fotos e vídeos caseiros de meus filhos estão crescendo e estou bastante desesperado para recuperá-los. Além de preferir fazer as coisas sozinho, não posso permitir a recuperação profissional de dados. Eu não tenho unidades de backup para copiar meus originais e não posso comprá-los, então estou preso tentando fazer isso sozinho com os discos originais. Qualquer ajuda é apreciada.

Perdoe-me se eu explicar demais, porque não tenho certeza do que é relevante e do que não é, já que estou tentando descobrir isso. Eu acredito que o controlador no meu NAS falhou e os dados ainda estão intactos nas unidades. Eu tirei todas as quatro unidades do NAS e coloquei-as em ordem no meu computador desconectado do meu disco rígido normal e estou usando o Live CD no modo de teste para executar o Ubuntu. Eu tenho tentado fazer isso até agora usando este guia: HOWTO: Raid de Recuperação de Dados do Espaço de Compartilhamento , mas eu me deparei com alguns obstáculos ao longo do caminho e todo o fórum está fechado, então não posso fazer perguntas lá.

A primeira coisa que fiz foi me posicionar no usuário root e verificar se todas as minhas unidades estavam no lugar certo e reconhecidas. Usando fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Não estou realmente sabendo o que estou procurando, mas não vendo nada que enviou bandeiras vermelhas, todos eles parecem muito intactos e saudáveis para mim, então eu prossigo tentando montar o ataque das partições sd * 4 que são supostamente aqueles com os dados para reconstruir o ataque.

Eu tentei:

mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

mas eu recebi um erro de cerca de 2 unidades e não sendo o suficiente, então comecei a vasculhar a internet e descobri que havia um comando de força, então usei:

mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

e isso pareceu funcionar. YAY! ... mais ou menos ...

vgscan

No volume groups found

Boo ... Voltando a vasculhar a internet, encontrei um post em que alguém estava tendo um problema semelhante e tive que recriar o volume e os grupos locais para acessar com êxito os dados. Usando os nomes dos grupos de volumes e grupos locais do guia que eu estava usando, criei-os usando os novos comandos que encontrei:

vgcreate vg0 /dev/md0

e

lvcreate -L5.45T -n lv0 vg0

ambos relataram serem criados e todos pareciam bons no mundo. Até que, voltando ao meu guia, tentei montá-lo:

mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type

Aparentemente, "auto" não funciona como o guia disse. Percorrendo a rede eu encontrei alguns tipos de sistema de arquivos ext3 e ext 4, então eu os testei também:

mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

e

mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Como você pode ver, nem funcionou ... Então, depois de várias horas de pesquisa, cheguei à conclusão de que preciso pedir ajuda. Se alguém tem alguma sugestão, ou conselho, ou melhor ainda sabe como fazer este trabalho, eu realmente aprecio o insight. Se fiz algo errado, também seria muito bom saber.

Eu percebi que isso também pode ser útil:

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Dec 10 05:44:29 2009
     Raid Level : raid5
     Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
  Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr  4 08:12:03 2013
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : dd69553d:5c832cf7:9755c9c8:d208511e
         Events : 0.3986045

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       0        0        3      removed

e também:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
      5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

unused devices: <none>

Isto é o que meu fdisk -l parece agora depois de brincar com tudo isso:

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table

Por favor, tenha em mente que eu ainda sou novo nisso, então seria muito apreciado se algum conselho pudesse, por favor, vir com alguma compreensão básica de por que você está fazendo sua sugestão. Isso vai me ajudar a entender muito mais o que estou fazendo. Obrigada!

    
por Nelliana Calvert 04.04.2013 / 19:21

2 respostas

1

A partir das informações que você forneceu, acho que provavelmente você está correto, pois a grande maioria dos seus dados permanece intacta. Neste ponto, você está lidando com uma matriz RAID quebrada. Obviamente não é onde você quer estar, mas tampouco o fim do mundo.

Na minha experiência com as unidades do ShareSpace, normalmente uma unidade sai da matriz muito antes de o RAID realmente falhar. O sistema Linux Software RAID detecta a primeira falha da unidade e alterna a matriz para o modo degradado. Isso significa que a matriz continua a funcionar, mas está usando apenas as três unidades boas restantes. As coisas parecerão operar normalmente por um período de tempo até que uma segunda unidade saia da matriz. Então o RAID trava e você tem um problema.

Essas unidades desistem por um motivo. Geralmente são setores ruins. Felizmente, a recuperação é muitas vezes possível. Mas você precisa pisar com cuidado, pois qualquer erro que você tomar diminuirá as chances de recuperação de dados.

Se você quiser ir sozinho, aconselho-o a tirar fotos de backup antes de prosseguir. Eu sei mais fácil dizer do que fazer com quatro unidades de 2 TB. Mas você realmente só precisaria fazer backup de três deles / dev / sda, / dev / sdb e / dev / sdc.

Ou, se você quiser ajuda, sou um consultor de recuperação de dados on-line. E eu realizo a recuperação remota de dados NAS / RAID via Internet para clientes em todo o mundo. No passado, realizei muitas operações bem-sucedidas de recuperação remota de dados do WD ShareSpace. Eu ofereço recuperação remota de dados e assistência de recuperação de dados Do-It-Yourself. Se você gosta, eu ficaria feliz em ajudá-lo. Entre em contato comigo através do meu site. Meu nome é Stephen Haran e meu site é link

    
por Stephen Haran 06.04.2013 / 19:44
0

Atualização: Todos os meus dados puderam ser recuperados graças a Stephen. Eu recomendo altamente o seu serviço, se alguém precisar de ajuda com qualquer tipo de recuperação de dados. link

    
por Nelliana Calvert 19.06.2013 / 02:00