Ubuntu 17.10 com root no ZFS não consegue importar o rpool na primeira inicialização

0

Acabou de instalar o Ubuntu 17.10 no Dell XPS 15 (9550) com root no ZFS. Todos os passos pareciam ir bem, na primeira inicialização, recebo: Falha ao inpool rpool, mais de um pool correspondente. Importar por ID numérica.

Eu tentei 'rpool list' retorna 'sem pools disponíveis'.

Mais informações: Eu posso ver o mesmo dispositivo SSD sob dois nomes diferentes:

root@ubuntu:/dev/disk/by-id# ls -l
total 0
lrwxrwxrwx 1 root root 10 Oct 30 02:07 dm-name-luks1 -> ../../dm-0
lrwxrwxrwx 1 root root 10 Oct 30 02:07 dm-uuid-CRYPT-LUKS1-b3392b1e1b4c4e43ac40d523ede99f0b-luks1 -> ../../dm-0
lrwxrwxrwx 1 root root 13 Oct 30 02:04 nvme-THNSN51T02DU7_NVMe_TOSHIBA_1024GB__467S106NT61V -> ../../nvme0n1
lrwxrwxrwx 1 root root 15 Oct 30 02:07 nvme-THNSN51T02DU7_NVMe_TOSHIBA_1024GB__467S106NT61V-part1 -> ../../nvme0n1p1
lrwxrwxrwx 1 root root 15 Oct 30 02:38 nvme-THNSN51T02DU7_NVMe_TOSHIBA_1024GB__467S106NT61V-part3 -> ../../nvme0n1p3
lrwxrwxrwx 1 root root 15 Oct 30 02:13 nvme-THNSN51T02DU7_NVMe_TOSHIBA_1024GB__467S106NT61V-part4 -> ../../nvme0n1p4
lrwxrwxrwx 1 root root 13 Oct 30 02:04 nvme-eui.00080d02000551ca -> ../../nvme0n1
lrwxrwxrwx 1 root root 15 Oct 30 02:07 nvme-eui.00080d02000551ca-part1 -> ../../nvme0n1p1
lrwxrwxrwx 1 root root 15 Oct 30 02:38 nvme-eui.00080d02000551ca-part3 -> ../../nvme0n1p3
lrwxrwxrwx 1 root root 15 Oct 30 02:13 nvme-eui.00080d02000551ca-part4 -> ../../nvme0n1p4
lrwxrwxrwx 1 root root 10 Oct 30 02:07 raid-luks1 -> ../../dm-0
lrwxrwxrwx 1 root root  9 Oct 30 01:51 usb-SanDisk_Cruzer_Glide_4C530001270720102400-0:0 -> ../../sda
lrwxrwxrwx 1 root root 10 Oct 30 01:51 usb-SanDisk_Cruzer_Glide_4C530001270720102400-0:0-part1 -> ../../sda1

Existem ambos 'nvme-THNSN51T02DU7_NVMe_TOSHIBA_1024GB__467S106NT61V' e 'nvme-eui.00080d02000551ca'. Eu usei o primeiro ao instalar.

Eu acho que isso é confuso zpool? Quando eu reiniciar e a importação falhar, se eu executar 'zpool import', vejo o mesmo pool, 'rpool', listado duas vezes, sob os dois nomes diferentes.

Olhando /lib/udev/rules.d/60-persistent-storage.rules, vejo estas regras do udev:

# NVMe
KERNEL=="nvme*[0-9]n*[0-9]", ATTR{wwid}=="?*", SYMLINK+="disk/by-id/nvme-$attr{wwid}"
KERNEL=="nvme*[0-9]n*[0-9]p*[0-9]", ENV{DEVTYPE}=="partition", ATTRS{wwid}=="?*", SYMLINK+="disk/by-id/nvme-$attr{wwid}-part%n"

KERNEL=="nvme*[0-9]n*[0-9]", ENV{DEVTYPE}=="disk", ATTRS{serial}=="?*", ENV{ID_SERIAL_SHORT}="$attr{serial}"
KERNEL=="nvme*[0-9]n*[0-9]", ENV{DEVTYPE}=="disk", ATTRS{wwid}=="?*", ENV{ID_WWN}="$attr{wwid}"
KERNEL=="nvme*[0-9]n*[0-9]", ENV{DEVTYPE}=="disk", ATTRS{model}=="?*", ENV{ID_SERIAL_SHORT}=="?*", ENV{ID_SERIAL}="$attr{model}_$env{ID_SERIAL_SHORT}", SYMLINK+="disk/by-id/nvme-$env{ID_SERIAL}"

KERNEL=="nvme*[0-9]n*[0-9]p*[0-9]", ENV{DEVTYPE}=="partition", ATTRS{serial}=="?*", ENV{ID_SERIAL_SHORT}="$attr{serial}"
KERNEL=="nvme*[0-9]n*[0-9]p*[0-9]", ENV{DEVTYPE}=="partition", ATTRS{model}=="?*", ENV{ID_SERIAL_SHORT}=="?*", ENV{ID_SERIAL}="$attr{model}_$env{ID_SERIAL_SHORT}", SYMLINK+="disk/by-id/nvme-$env{ID_SERIAL}-part%n"

Eu não sei nada sobre as regras do udev, mas acho que eu quero remover algumas dessas regras para que eu tenha apenas um único conjunto de nomes para isso dispositivo?

Alguma idéia?

Ajuda?

Obrigado.

    
por Mark J. Bobak 29.10.2017 / 03:46

0 respostas