Eu li um monte de postagens de tentar fazer com que seu Raid1 inicialize no segundo disco se o primeiro falhar. Nada falhou ainda, mas estou tentando testar minha configuração. A segunda unidade vem com a tela bash grub.
2 unidades WD de 3 TB vermelhas (mdadm raid1)
Eu tenho sda1 & amp; sdb1 (/ boot / efi) em sua própria partição e não em um raid1. Eu li o / boot / efi não pode estar em raid1. Não tenho certeza se isso é verdade ou não, mas por enquanto eles estão em sua própria partição. Talvez isso possa ser o meu problema? Eu li que você pode fazer isso com / boot e não com o EFI. Essa é a minha principal questão, devo 'dd' as partições / boot / EFI para que eles acabem tendo o mesmo UUID?
/ dev / sda
GPT fdisk (gdisk) version 0.8.7
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): A0F00B38-0030-4607-82E7-313822903BF0
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 2048-sector boundaries
Total free space is 2925 sectors (1.4 MiB)
Number Start (sector) End (sector) Size Code Name
1 2048 249855 121.0 MiB EF00 Ubuntu1
2 249856 5860532223 2.7 TiB FD00 raid1
/ dev / sdb
GPT fdisk (gdisk) version 0.8.7
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Disk /dev/sdb: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): A7E6C07D-839F-465D-B9CD-47E45CB62125
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 2048-sector boundaries
Total free space is 2925 sectors (1.4 MiB)
Number Start (sector) End (sector) Size Code Name
1 2048 249855 121.0 MiB EF00 Ubuntu2
2 249856 5860532223 2.7 TiB FD00 raid2
blkid
/dev/sda1: UUID="C70D-A319" TYPE="vfat"
/dev/sda2: UUID="8a62e7a5-e67d-5620-346d-19327a22ac27" UUID_SUB="b1d472cf-cf30-2ddf-5dbf-0a709e179a90" LABEL="HomeServer:0" TYPE="linux_raid_member"
/dev/sdb1: UUID="C70F-2DD1" TYPE="vfat"
/dev/sdb2: UUID="8a62e7a5-e67d-5620-346d-19327a22ac27" UUID_SUB="269b71a5-2faf-3fd5-a33f-2975acae100a" LABEL="HomeServer:0" TYPE="linux_raid_member"
/dev/md0: UUID="Pxo24d-8Phw-GW8b-kzWc-5CCs-I4Zq-Lp43hv" TYPE="LVM2_member"
/dev/mapper/ubuntu-swap: UUID="ddccb365-e251-4ee1-a15c-b58295210885" TYPE="swap"
/dev/mapper/ubuntu-root: LABEL="root" UUID="ebce6c83-50a7-448d-81cd-2a7a5585fa97" TYPE="ext4"
/dev/mapper/ubuntu-nas: LABEL="nas" UUID="c39a16f5-1644-4f6e-9005-1acf094220ca" TYPE="ext4"
Eu fiz uma nova instalação do 13.10 sever e tive que adicionar o grub2 ao / dev / sdb1
mount | grep sda1
sudo umount /boot/efi
sudo mount /dev/sdb1 /boot/efi
sudo grub-install --bootloader-id ubuntu2 /dev/sdb
sudo umount /boot/efi
sudo mount /boot/efi
Isso instalou o grub e adicionou outra opção ao meu gerenciador de inicialização efi. Ao olhar para o meu / etc / fstab, ele só pode montar / boot / efi de sda1. Se ele falhar, como o fstab saberá montar / boot / efi de sdb1?
/ etc / fstab
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/mapper/ubuntu-root / ext4 errors=remount-ro 0 1
# /boot/efi was on /dev/sdb1 during installation
UUID=C70D-A319 /boot/efi vfat defaults 0 1
/dev/mapper/ubuntu-nas /nas ext4 defaults,acl 0 2
/dev/mapper/ubuntu-swap none swap sw 0 0
Editar:
Eu DD sda1 para sdb1 e com a ajuda de reparo de inicialização, tenho 2 larvas de boot (entre horas de tentar coisas). Desde que eu DD as partições, o UUID blkid é o mesmo. Aqui está a minha informação de reparação de inicialização. link
Ainda assim, quando o sistema tenta inicializar degradado, ele apenas faz um loop em 'Starting system degraded'. Tem que usar o LiveCD e adicionar o disco rígido de volta ao array antes que ele possa inicializar degradado.