Volume baixo constante grava no array raid (jbd2), o que está causando isso?

3

Eu tenho um array de raid, de fato, dois arrays raid que são muito parecidos, no entanto um está sendo escrito constantemente (por jbd2 parece) e o outro não é. Aqui estão as matrizes:

md9 : active raid5 sdl4[4] sdk4[2] sdh4[1] sdb4[0]
  11626217472 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
  bitmap: 2/29 pages [8KB], 65536KB chunk

md8 : active raid5 sdf3[2] sdc3[1] sda3[0] sdi3[3]
  11626217472 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
  bitmap: 0/29 pages [0KB], 65536KB chunk

Como você pode ver, nenhuma "verificação" ou algo especial está acontecendo. Ambos os arrays são 4x 4 TB.

Até aí tudo bem.

Ambos os arrays (/ dev / md8 e / dev / md9) contêm somente dados, nenhum sistema de arquivos raiz. Na verdade, eles raramente são usados por qualquer coisa. Ambos têm uma única partição ext4 montada com noatime e estão "bcache" prontos (mas ainda não há volume de cache):

df -h :

/dev/bcache0     11T  7.3T  3.6T  67% /mnt/raid5a
/dev/bcache1     11T  7.4T  3.5T  68% /mnt/raid5b

cat /proc/mounts :

/dev/bcache0 /mnt/raid5a ext4 rw,nosuid,nodev,noexec,noatime,data=ordered 0 0
/dev/bcache1 /mnt/raid5b ext4 rw,nosuid,nodev,noexec,noatime,data=ordered 0 0

No entanto, iostat informa que há gravação constante indo para /dev/bcache1 (e está fazendo backup do volume /dev/md9 ), enquanto nada semelhante está acontecendo na matriz idêntica /dev/md8 ...

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
md8               0.00         0.00         0.00          0          0
bcache0           0.00         0.00         0.00          0          0
md9               1.50         0.00        18.00          0         36
bcache1           1.00         0.00        12.00          0         24

md8               0.00         0.00         0.00          0          0
bcache0           0.00         0.00         0.00          0          0
md9               2.50         0.00        18.00          0         36
bcache1           2.50         0.00        18.00          0         36

Isso vem acontecendo há horas.

O que eu tentei:

  1. Matou tudo relacionado a gvfs. ps ax |grep gvfs fornece resultados zero agora. Escritos continuam acontecendo.
  2. Verificado com lsof se algo estiver acontecendo. Não mostra nada.
  3. Usado iotop . Eu vejo um processo chamado [jbd2/bcache1-8] que está frequentemente no topo. Nada semelhante para o outro array.
  4. Tentei desmontar o volume. Isso funciona sem problemas e o iostat não informa mais acessos (aparentemente indicando que ninguém está usando). Remontá-lo, no entanto, aciona novamente essas gravações de baixo volume imediatamente ...

Sou muito curioso para saber o que poderia estar escrevendo para esse array. Como eu disse, ele contém apenas dados, literalmente, uma pasta e lost+found , que está vazia ...

    
por john16384 28.09.2017 / 23:35

1 resposta

3

Parece que eu já encontrei o culpado depois de digitar uma pergunta completa ...

Embora o volume já tenha mais de uma semana (em comparação com o outro array com duas semanas), outro processo ext4lazyinit está ainda ocupado inicializando inodes (o que eu mesmo limito a um muito são 4 milhões, em vez do insano 4 gazillion mkfs.ext4 normalmente criaria para um volume tão grande).

df -h -i :

Filesystem     Inodes IUsed IFree IUse% Mounted on
/dev/bcache1     4.1M  2.1K  4.1M    1% /mnt/raid5b

Após remontar o volume novamente com init_itable=0 , iostat mostra as mesmas gravações, exceto em um volume muito maior:

md8               0.00         0.00         0.00          0          0
bcache0           0.00         0.00         0.00          0          0
md9             101.50         0.00       584.00          0       1168
bcache1         101.50         0.00       584.00          0       1168

... o que parece confirmar que, de fato, ainda está ocupado inicializando inodes.

    
por 28.09.2017 / 23:52

Tags