WD MyBook World Edição II (Luz Branca) Recuperação RAID 1

0

Eu tenho procurado por toda parte uma solução para isso e preciso desesperadamente de ajuda.

Ok, então o problema é: Meu trabalho tem um NAS WD MyBook World Edition II como o principal método de compartilhamento de arquivos (o que é errado). Um dos HDDs estava em modo degradado, o que tornava o NAS auto-reinicializado a cada 2 minutos e inutilizável para transferir arquivos grandes que demoram mais que isso. Além disso, o sistema estava inacessível em computadores Mac OS, que compreendem metade dos PCs no trabalho.

Enfim, algum cara sábio decidiu que era hora de substituir as unidades e comprou duas unidades semelhantes. Ele removeu a unidade degradada e substituiu-a por uma das novas unidades e deixou o sistema para reconstruir a matriz RAID 1.

O que aconteceu foi muito ruim ... o NAS não começou de jeito nenhum. Então o "cara esperto" decidiu tirar ambos os HDDs e tentar montá-los em uma máquina Ubuntu para recuperar os dados. Ele usou o testdisk para reconstruir a tabela de partições na unidade que estava na matriz original. Quando ele falhou, ele decidiu deixar tudo e ir para casa. Agora eu estou preso com dois discos rígidos com diferentes tabelas de partição que devem ser espelhadas RAID 1 array e não consigo recuperar nada deles.

Eu realmente preciso de uma pasta específica desse array e não consigo acessar os arquivos ou até mesmo listá-los. Eu tentei remontar usando mdadm , mas o sistema de arquivos não pôde ser lido.

Aqui está o que acontece quando eu executo fdisk -l em ambas as unidades:

$ sudo fdisk -l /dev/sdc
Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 9E196CBE-3003-3744-82E5-61503476D1BC

Device       Start        End    Sectors   Size Type
/dev/sdc1  6474176 1953524869 1947050694 928.4G Linux RAID

$ sudo fdisk -l /dev/sdd
Disk /dev/sdd: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: BA4BB74B-128D-4349-AE96-969DD4660B24

Device       Start        End    Sectors   Size Type
/dev/sdd1    64320    3984191    3919872   1.9G Linux RAID
/dev/sdd2  3984192    4498175     513984   251M Linux RAID
/dev/sdd3  4498176    6474175    1976000 964.9M Linux RAID
/dev/sdd4  6474176 1953525134 1947050959 928.4G Linux RAID

Ele também parou todos os arrays de ataque mdx que foram criados pelo NAS

Qualquer ajuda é muito apreciada ... Se você precisar de mais alguma informação para ajudar a resolver o problema, apenas me diga o que você precisa.

Obrigado antecipadamente ...

Editar:

Aqui está o que eu recebo ao analisar com o testdisk em ambas as unidades:

Unidade 1: (sdc)

Disk /dev/sdc - 1000 GB / 931 GiB - CHS 121601 255 63
 Partition               Start        End    Size in sectors
>D MS Data                    64320    3984063    3919744
D Linux Raid                 64320    3984191    3919872 [md124]
D Linux Swap               3984192    4497967     513776
D Linux Raid               3984192    4498111     513920 [md1]
D MS Data                  4498176    6473983    1975808
D Linux Raid               4498176    6474111    1975936 [md126]
P Linux Raid               6474176 1953262663 1946788488 [AR:0]

Disco 2: (sdd)

Disk /dev/sdd - 1000 GB / 931 GiB - CHS 121601 255 63
 Partition               Start        End    Size in sectors
>D MS Data                    64320    3984063    3919744
D Linux Raid                 64320    3984191    3919872 [md124]
D Linux Swap               3984192    4497967     513776
D Linux Raid               3984192    4498111     513920 [md1]
D MS Data                  4498176    6473983    1975808
D Linux Raid               4498176    6474111    1975936 [md127]
P Linux Raid               6474176 1953262663 1946788488 [AR:0]
    
por MReda 30.03.2017 / 15:56

0 respostas