desmonta sys / fs / cgroup / systemd depois do chroot, sem reinicializar

4

Antecedentes: Estou explorando como copiar uma instalação comum do LVM-on-LUKS do Debian 9 ("Stretch") de um pen drive (a "unidade de origem") ) em uma unidade formatada pelo ZFS (a "unidade de destino") para obter uma instalação do ZFS-on-LUKS. Meu processo é baseado em este HOWTO . * Eu acho que o aspecto do ZFS é irrelevante para a questão que eu gostaria de ajudar, mas estou mencionando isso apenas no caso que importa.

Como parte do meu processo, enquanto o Stretch está sendo executado a partir da unidade de origem, montei o sistema de arquivos de raiz ZFS de destino ( / ) em /mnt . Eu então recursivamente ligo:

  • /dev to /mnt/dev
  • /proc to /mnt/proc
  • /sys a /mnt/sys .

Eu então chroot em /mnt .

(No futuro, quando eu estiver chrooted em /mnt , pretendo executar update-initramfs , update-grub , etc, para configurar o conteúdo da partição /boot .)

Eu saio do chroot e meu problema começa. Acho que posso desmontar /mnt/dev e /mnt/proc , mas não /mnt/sys . O último se recusa a desmontar porque contém /mnt/sys/fs/cgroup/systemd , que o sistema, por algum motivo, acha que está "em uso". Reformatar a unidade ZFS e reinicializar corrige o problema, mas retarda enormemente as iterações do meu processo de aprendizado e documentação.

Minhas perguntas são:

- Como posso desmontar /mnt/sys após o chroot, sem reiniciar?

- A falha ( umount: /mnt/sys/fs/cgroup/systemd: target is busy ) é esperada? Se não, contra qual parte do software eu devo registrar um relatório de bug: umount , cgroups , systemd , o Linux kernel ou outra coisa?

Aqui está (eu acho) um exemplo mínimo de trabalho . (Se você está tendo dificuldade em reproduzir isso e acha que eu poderia ter perdido um passo, me avise.) Primeiro, o clichê:

# Activate the ZFS kernel module
/sbin/modprobe zfs

# Set variables
BOOT_POOL=bpool
ROOT_POOL=rpool
DIRS_TO_COPY=(boot bin etc home lib lib64 opt root sbin srv usr var)
FILES_TO_COPY=(initrd.img initrd.img.old vmlinuz vmlinuz.old)
VIRTUAL_FILESYSTEM_DIRS=(dev proc sys)

## Partition target drive
# 1MB BIOS boot partition
sgdisk -a2048 -n1:2048:4095     -t1:EF02 $1 -c 1:"bios_boot_partition"
wait
# 510MB partition for /boot ZFS filesystem
sgdisk -a2048 -n2:4096:1052671  -t2:BF07 $1 -c 2:"zfs_boot_partition"
wait
# Remaining drive space, except the last 510MiB in case of future need:
# partition to hold the LUKS container and the root ZFS filesystem
sgdisk -a2048 -n3:1052672:-510M -t3:8300 $1 -c 3:"luks_zfs_root_partition"
wait

# Before proceeding, ensure /dev/disk/by-id/ knows of these new partitions
partprobe
wait

# Create the /boot pool
zpool create -o ashift=12            \
             -O atime=off            \
             -O canmount=off         \
         -O compression=lz4      \
         -O normalization=formD  \
             -O mountpoint=/boot     \
             -R /mnt                 \
             $BOOT_POOL "$1"-part2
wait

# Create the LUKS container for the root pool
cryptsetup luksFormat "$1"-part3               \
                      --hash sha512            \
                      --cipher aes-xts-plain64 \
              --key-size 512
wait

# Open LUKS container that will contain the root pool
cryptsetup luksOpen "$1"-part3 "$DRIVE_SHORTNAME"3_crypt
wait

# Create the root pool
zpool create -o ashift=12           \
             -O atime=off           \
             -O canmount=off        \
             -O compression=lz4     \
             -O normalization=formD \
             -O mountpoint=/        \
             -R /mnt                \
             $ROOT_POOL /dev/mapper/"$DRIVE_SHORTNAME"3_crypt
wait

# Create ZFS datasets for the root ("/") and /boot filesystems
zfs create -o canmount=noauto -o mountpoint=/      "$ROOT_POOL"/debian
zfs create -o canmount=noauto -o mountpoint=/boot  "$BOOT_POOL"/debian

# Mount the root ("/") and /boot ZFS datasets
zfs mount "$ROOT_POOL"/debian
zfs mount "$BOOT_POOL"/debian

# Create datasets for subdirectories
zfs create                     -o setuid=off              "$ROOT_POOL"/home
zfs create -o mountpoint=/root                            "$ROOT_POOL"/home/root
zfs create -o canmount=off     -o setuid=off  -o exec=off "$ROOT_POOL"/var
zfs create -o com.sun:auto-snapshot=false                 "$ROOT_POOL"/var/cache
zfs create                                                "$ROOT_POOL"/var/log
zfs create                                                "$ROOT_POOL"/var/mail
zfs create                                                "$ROOT_POOL"/var/spool
zfs create -o com.sun:auto-snapshot=false     -o exec=on  "$ROOT_POOL"/var/tmp
zfs create                                                "$ROOT_POOL"/srv
zfs create -o com.sun:auto-snapshot=false     -o exec=on  "$ROOT_POOL"/tmp

# Set the 'bootfs' property. ***TODO: IS THIS CORRECT???***
zpool set bootfs="$ROOT_POOL"/debian "$ROOT_POOL"

# Set correct permission for tmp directories
chmod 1777 /mnt/tmp
chmod 1777 /mnt/var/tmp

E aqui está a parte central da questão:

# Copy Debian install from source drive to target drive
for i in "${DIRS_TO_COPY[@]}"; do 
    rsync --archive --quiet --delete /"$i"/ /mnt/"$i"
done
for i in "${FILES_TO_COPY[@]}"; do
    cp -a /"$i" /mnt/
done
for i in "${VIRTUAL_FILESYSTEM_DIRS[@]}"; do
    # Make mountpoints for virtual filesystems on target drive
    mkdir /mnt/"$i"
    # Recursively bind the virtual filesystems from source environment to the
    # target. N.B. This is using '--rbind', not '--bind'.
    mount --rbind /"$i"  /mnt/"$i"
done

# 'chroot' into the target environment
chroot /mnt /bin/bash --login

# (Manually exit from the chroot)

# Delete copied files
for i in "${DIRS_TO_COPY[@]}" "${FILES_TO_COPY[@]}"; do
    rm -r /mnt/"$i"
done

# Remove recursively bound virtual filesystems from target
for i in "${VIRTUAL_FILESYSTEM_DIRS[@]}"; do
    # First unmount them
    umount --recursive --verbose --force /mnt/"$i" || sleep 0
    wait
    # Then delete their mountpoints
    rmdir /mnt/"$i"
    wait
done

Neste último passo, obtenho:

umount: /mnt/sys/fs/cgroup/systemd: target is busy
    (In some cases useful info about processes that
     use the device is found by lsof(8) or fuser(1).)

Caso isso ajude: findmnt mostra a árvore sys completa montada duas vezes: uma vez a /sys e identicamente /mnt/sys .

* Debian Jessie Root no ZFS, CC BY-SA 3.0 , de Richard Laager e George Melikov .

    
por sampablokuper 03.05.2017 / 17:41

1 resposta

5

Você precisa adicionar mount --make-rslave /mnt/"$i" após seu primeiro comando de montagem, para definir os sinalizadores de propagação corretos para esses pontos de montagem.

Eles protegem o host de alterações feitas dentro do ambiente chroot e ajudam a impedir situações de bloqueio como a sua.

    
por 04.05.2017 / 10:32