Servidor 13.10, Raid1, LVM, EFI inicializando no segundo disco

0

Eu li um monte de postagens de tentar fazer com que seu Raid1 inicialize no segundo disco se o primeiro falhar. Nada falhou ainda, mas estou tentando testar minha configuração. A segunda unidade vem com a tela bash grub.

2 unidades WD de 3 TB vermelhas (mdadm raid1)

Eu tenho sda1 & amp; sdb1 (/ boot / efi) em sua própria partição e não em um raid1. Eu li o / boot / efi não pode estar em raid1. Não tenho certeza se isso é verdade ou não, mas por enquanto eles estão em sua própria partição. Talvez isso possa ser o meu problema? Eu li que você pode fazer isso com / boot e não com o EFI. Essa é a minha principal questão, devo 'dd' as partições / boot / EFI para que eles acabem tendo o mesmo UUID?

/ dev / sda

GPT fdisk (gdisk) version 0.8.7

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): A0F00B38-0030-4607-82E7-313822903BF0
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 2048-sector boundaries
Total free space is 2925 sectors (1.4 MiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048          249855   121.0 MiB   EF00  Ubuntu1
   2          249856      5860532223   2.7 TiB     FD00  raid1

/ dev / sdb

GPT fdisk (gdisk) version 0.8.7

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sdb: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): A7E6C07D-839F-465D-B9CD-47E45CB62125
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 2048-sector boundaries
Total free space is 2925 sectors (1.4 MiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048          249855   121.0 MiB   EF00  Ubuntu2
   2          249856      5860532223   2.7 TiB     FD00  raid2

blkid

/dev/sda1: UUID="C70D-A319" TYPE="vfat"
/dev/sda2: UUID="8a62e7a5-e67d-5620-346d-19327a22ac27" UUID_SUB="b1d472cf-cf30-2ddf-5dbf-0a709e179a90" LABEL="HomeServer:0" TYPE="linux_raid_member"
/dev/sdb1: UUID="C70F-2DD1" TYPE="vfat"
/dev/sdb2: UUID="8a62e7a5-e67d-5620-346d-19327a22ac27" UUID_SUB="269b71a5-2faf-3fd5-a33f-2975acae100a" LABEL="HomeServer:0" TYPE="linux_raid_member"
/dev/md0: UUID="Pxo24d-8Phw-GW8b-kzWc-5CCs-I4Zq-Lp43hv" TYPE="LVM2_member"
/dev/mapper/ubuntu-swap: UUID="ddccb365-e251-4ee1-a15c-b58295210885" TYPE="swap"
/dev/mapper/ubuntu-root: LABEL="root" UUID="ebce6c83-50a7-448d-81cd-2a7a5585fa97" TYPE="ext4"
/dev/mapper/ubuntu-nas: LABEL="nas" UUID="c39a16f5-1644-4f6e-9005-1acf094220ca" TYPE="ext4"

Eu fiz uma nova instalação do 13.10 sever e tive que adicionar o grub2 ao / dev / sdb1

 mount | grep sda1
 sudo umount /boot/efi
 sudo mount /dev/sdb1 /boot/efi
 sudo grub-install --bootloader-id ubuntu2 /dev/sdb
 sudo umount /boot/efi
 sudo mount /boot/efi

Isso instalou o grub e adicionou outra opção ao meu gerenciador de inicialização efi. Ao olhar para o meu / etc / fstab, ele só pode montar / boot / efi de sda1. Se ele falhar, como o fstab saberá montar / boot / efi de sdb1?

/ etc / fstab

# <file system> <mount point>   <type>  <options>       <dump>  <pass>

/dev/mapper/ubuntu-root      /               ext4    errors=remount-ro  0       1

# /boot/efi was on /dev/sdb1 during installation
UUID=C70D-A319              /boot/efi       vfat    defaults            0       1

/dev/mapper/ubuntu-nas      /nas            ext4    defaults,acl        0       2
/dev/mapper/ubuntu-swap     none            swap    sw                  0       0

Editar:

Eu DD sda1 para sdb1 e com a ajuda de reparo de inicialização, tenho 2 larvas de boot (entre horas de tentar coisas). Desde que eu DD as partições, o UUID blkid é o mesmo. Aqui está a minha informação de reparação de inicialização. link

Ainda assim, quando o sistema tenta inicializar degradado, ele apenas faz um loop em 'Starting system degraded'. Tem que usar o LiveCD e adicionar o disco rígido de volta ao array antes que ele possa inicializar degradado.

    
por MolsonB 25.03.2014 / 18:31

1 resposta

0

A partir da sua edição, acredito que o motivo pelo qual ele faz um loop quando o sistema está degradado tem a ver com o seu grub.cfg. Você não compartilhou isso. Aqui está um exemplo (com recuos para chamar a atenção para o insmod radi, search, bootdegraded) que acredito que mostre modificações que você precisaria.

menuentry 'Ubuntu, with Linux 3.2.0-35-generic (raid)' --class ubuntu --class gnu-linux --class gnu --class os {
    recordfail
    gfxmode $linux_gfx_mode
    insmod gzio
    insmod part_gpt
    insmod ext2
  insmod raid
  insmod mdraid1x
  search --no-floppy --fs-uuid --set=root 455cf8f6-532c-442c-814c-b8c4d280d170
  linux   /vmlinuz-3.2.0-35-generic root=UUID=455cf8f6-532c-442c-814c-b8c4d280d170 ro bootdegraded=true
    initrd  /initrd.img-3.2.0-35-generic
}

Por favor, poste um follow-up. Agradeço sua edição de acompanhamento, mas não entendo quais alterações você implementou. Sua configuração está funcionando agora? Você poderia compartilhar sua solução (incluindo fstab) e a configuração atual comparada com a original? Você mencionou o grub para sdb e as modificações no gerenciador de inicialização efi. Eu não estou te seguindo nisso. Você tem algum código / comandos que você poderia compartilhar para elaborar?

    
por user276556 01.05.2014 / 17:08