Mover o RAID 5 para outro computador

0

Problema do RAID 5

A questão nítida é que não sei como ativar um RAID inativo sem que meus esforços sejam irreversíveis. Tente remontar de forma não destrutiva. É mesmo possível?

Transferindo o RAID 5 para um novo computador se uma CPU falhar.

Plano de fundo

  1. UBUNTU 16.04 executando o software mdadm O RAID 5 falhou e foi reinicializado com o comando Pressione ctrl D para continuar.

  2. Acho que meu RAID ARRAY parece estar intacto. Veja as impressões abaixo. Eu quero mover meu RAID 5 de um computador para outro, caso o problema seja de hardware.

  3. O problema com a partição de inicialização do UBUNTU pode ser simplesmente a falta de espaço na partição de inicialização. A partição de inicialização era apenas 10G e, embora a instalação do Ubuntu fosse originalmente uma instalação mínima do servidor, eu a expandi para executar a área de trabalho também. 10G pode não ter sido suficiente, mas correu assim por 2 meses. Eu só queria a interface gráfica.

  4. Também li recentemente que as partições RAID 5 não deveriam ter excedido 1,5 T em cada disco. Eu não sabia disso na época e ele tem funcionado por cerca de 6 meses assim, embora recentemente tenha excedido esse limite. Está funcionando por volta das 6T agora.

  5. Meu plano é mover o RAID 5 em uma nova máquina com uma nova instalação do Ubuntu 16 em um novo disco "sde" e remontar o RAID no novo sistema.

Perguntas

  1. Como faço para mover o RAID 5 para um novo computador? Se o UBUNTU falhou ao inicializar, então eu deveria ser capaz de montar o RAID em um novo computador.

  2. A "montagem" sobrescreve as partições RAID? Será irreversível?

  3. Se o RAID ficar sem espaço, esperar-se-ia que o RAID falhasse e não a inicialização do UBUNTU.

  4. Como alternativa, posso remover com segurança todos os dispositivos do ARRAY e montar como partições convencionais normais para ler meus dados? Há cerca de 6T de dados espalhados pelo RAID.

Relatórios de status

root@UbuntuServer17:~# cat /etc/fstab
# /etc/fstab: static file system information.
# 
# fstab on WDD running as 5th disk sde
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/sda2 during installation
UUID=f37bd21c-9464-4763-b3e7-7f9f6f5154df /               ext4    errors=remount-ro 0       1
# /boot/efi was on /dev/sda1 during installation
UUID=4993-9AE3  /boot/efi       vfat    umask=0077      0       1
# swap was on /dev/sda3 during installation
UUID=e3b9f5e9-5eb9-47e0-9288-68649263093c none            swap    sw              0       0
# Steve added - from RAID17 when it crashed
# / was on /dev/sda1 during installation on RAID17
#UUID=1672f12a-9cf2-488b-9c8f-a701f1bc985c /               ext4    errors=remount-ro 0       1
#/dev/md0p1 /media/steve/RAID17 ext4    data=ordered,relatime,stripe=384,nodev,nosuid   0   0
#UUID=1672f12a-9cf2-488b-9c8f-a701f1bc985c /               ext4    errors=remount-ro 0       1
#/dev/md0   /media/steve/RAID17 ext4    data=ordered,relatime,stripe=384,nodev,nosuid   0   0




root@UbuntuServer17:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Sun, 05 Feb 2017 20:34:00 +0200
# by mkconf $Id$
# Steve added - maybe should add uuid to fstab file to mount on WD at start - But no sure

# ARRAY /dev/md0 uuid=3b92382f:78784c2b:e7a07a35:c1afcf1d
ARRAY /dev/md0 uuid=32c91cbf:266a5d14:182f1b34:f92b1ebe




root@UbuntuServer17:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sda2[0](S) sdd1[4](S) sdb1[1](S) sdc1[2](S)
      7803273216 blocks super 1.2

unused devices: <none>


root@UbuntuServer17:~# mdadm --examine --scan
ARRAY /dev/md/0  metadata=1.2 UUID=3b92382f:78784c2b:e7a07a35:c1afcf1d name=RAID17:0
root@UbuntuServer17:~# 


root@UbuntuServer17:~# sudo  fdisk -l
Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x5120487a

Device     Boot    Start        End    Sectors  Size Id Type
/dev/sda1  *        2048   20482047   20480000  9.8G 83 Linux
/dev/sda2       20514816 3907028991 3886514176  1.8T 83 Linux
/dev/sda3       20482048   20514815      32768   16M 82 Linux swap / Solaris

Partition table entries are not in disk order.


Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x000a439d

Device     Boot Start        End    Sectors  Size Id Type
/dev/sdb1        2048 3907028991 3907026944  1.8T 83 Linux


Disk /dev/sdc: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00044e92

Device     Boot Start        End    Sectors  Size Id Type
/dev/sdc1        2048 3907028991 3907026944  1.8T 83 Linux


Disk /dev/sdd: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0xc7703e92

Device     Boot Start        End    Sectors  Size Id Type
/dev/sdd1        2048 3907028991 3907026944  1.8T 83 Linux


Disk /dev/sde: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: AEC0A022-299A-4283-9F5F-2FCC4CC4609E

Device         Start       End   Sectors   Size Type
/dev/sde1       2048   1050623   1048576   512M EFI System
/dev/sde2    1050624 960124927 959074304 457.3G Linux filesystem
/dev/sde3  960124928 976771071  16646144     8G Linux swap
root@UbuntuServer17:~# 

root@UbuntuServer17:~# sudo dumpe2fs /dev/sda2
dumpe2fs 1.42.13 (17-May-2015)
Filesystem volume name:   <none>
Last mounted on:          <not available>
Filesystem UUID:          b474c4d4-af7f-4730-b746-a0c0c49ca08d
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags:         signed_directory_hash 
Default mount options:    user_xattr acl
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              121454592
Block count:              485814272
Reserved block count:     24290713
Free blocks:              478141459
Free inodes:              121454581
First block:              0
Block size:               4096
Fragment size:            4096
Reserved GDT blocks:      908
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         8192
Inode blocks per group:   512
Flex block group size:    16
Filesystem created:       Sat Feb 25 02:16:09 2017
Last mount time:          n/a
Last write time:          Sat Feb 25 02:16:09 2017
Mount count:              0
Maximum mount count:      -1
Last checked:             Sat Feb 25 02:16:09 2017
Check interval:           0 (<none>)
Lifetime writes:          135 MB
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:           256
Required extra isize:     28
Desired extra isize:      28
Journal inode:            8
Default directory hash:   half_md4
Directory Hash Seed:      e1e7da74-6e2f-4fa4-a9e0-a13a44338170
Journal backup:           inode blocks
dumpe2fs: Corrupt extent header while reading journal super block
root@UbuntuServer17:~# 
    
por user68988 09.08.2017 / 14:48

1 resposta

0

Eu finalmente encontrei a resposta em link .

Aqui está o que eu fiz:

Iniciou uma nova instalação e salvou os arquivos antigos fstab e mdadm.conf na minha nuvem.

Parece que a partição Raid no sda2 (um dos 4 discos físicos) de fato falhou. Eu tive o boot em sda1 e o Raid em sda2, sdb1, sdc1, sdd1.

Eu reinstalei o Ubuntu em uma nova unidade sde.

mdadm reinstalado.

Eu sabia onde estavam as 4 partições porque eu não havia mudado a ordem e a inicialização agora era sde1;

Eu forcei o array Raid a remontar nas mesmas partições;

Felizmente, três unidades de quatro estão funcionando, então o Raid está degradado, mas até agora está funcionando.

Os passos que segui estão bem definidos no link acima. Devo dizer que encontrei o Oceano Digital para ser de grande ajuda ao longo do caminho também. Parece sempre tão simples depois, mas o caminho é traiçoeiro.

    
por user68988 05.09.2017 / 21:44