Por que a configuração arc_max não é respeitada no ZFS no Linux?

20

Estou executando o ZoL 0.6.2 do seu PPA no Ubuntu 12.04. Está em um host com 16 GB de memória destinado a executar algumas VMs usando o KVM / Libvirt. Depois de algum tempo, a ZoL está usando uma quantidade insana de memória, atingindo 98% do uso de RAM com algumas VMs em execução. Isso resulta em novos processos que se recusam a iniciar "não é possível alocar memória". Eu não posso nem iniciar mais todas as minhas VMs que antes de usar o ZFS estavam usando cerca de 40-50% de RAM.

Tanto quanto eu entendo, sem ajustes, o ZoL deve liberar memória assim que o sistema estiver com falta de memória. Bem, isso não acontece. Então, decidi definir a configuração arc_max para 1 GB.

# echo 1073741824 >> /sys/module/zfs/parameters/zfs_arc_max

Ainda assim, não libera nenhuma memória.

Como você pode ver nas estatísticas de ARC abaixo, ele está usando mais memória do que está configurada para (compare c = 7572030912 com c_max = 1073741824 ).

O que estou fazendo de errado aqui?

# cat /proc/spl/kstat/zfs/arcstats
4 1 0x01 84 4032 43757119584 392054268420115
name                            type data
hits                            4    28057644
misses                          4    13975282
demand_data_hits                4    19632274
demand_data_misses              4    571809
demand_metadata_hits            4    6333604
demand_metadata_misses          4    289110
prefetch_data_hits              4    1903379
prefetch_data_misses            4    12884520
prefetch_metadata_hits          4    188387
prefetch_metadata_misses        4    229843
mru_hits                        4    15390332
mru_ghost_hits                  4    1088944
mfu_hits                        4    10586761
mfu_ghost_hits                  4    169152
deleted                         4    35432344
recycle_miss                    4    701686
mutex_miss                      4    35304
evict_skip                      4    60416647
evict_l2_cached                 4    0
evict_l2_eligible               4    3022396862976
evict_l2_ineligible             4    1602907651584
hash_elements                   4    212777
hash_elements_max               4    256438
hash_collisions                 4    17163377
hash_chains                     4    51485
hash_chain_max                  4    10
p                               4    1527347963
c                               4    7572030912
c_min                           4    1038188800
c_max                           4    1073741824
size                            4    7572198224
hdr_size                        4    66873056
data_size                       4    7496095744
other_size                      4    9229424
anon_size                       4    169150464
anon_evict_data                 4    0
anon_evict_metadata             4    0
mru_size                        4    1358216192
mru_evict_data                  4    1352400896
mru_evict_metadata              4    508928
mru_ghost_size                  4    6305992192
mru_ghost_evict_data            4    4919159808
mru_ghost_evict_metadata        4    1386832384
mfu_size                        4    5968729088
mfu_evict_data                  4    5627991552
mfu_evict_metadata              4    336846336
mfu_ghost_size                  4    1330455552
mfu_ghost_evict_data            4    1287782400
mfu_ghost_evict_metadata        4    42673152
l2_hits                         4    0
l2_misses                       4    0
l2_feeds                        4    0
l2_rw_clash                     4    0
l2_read_bytes                   4    0
l2_write_bytes                  4    0
l2_writes_sent                  4    0
l2_writes_done                  4    0
l2_writes_error                 4    0
l2_writes_hdr_miss              4    0
l2_evict_lock_retry             4    0
l2_evict_reading                4    0
l2_free_on_write                4    0
l2_abort_lowmem                 4    0
l2_cksum_bad                    4    0
l2_io_error                     4    0
l2_size                         4    0
l2_asize                        4    0
l2_hdr_size                     4    0
l2_compress_successes           4    0
l2_compress_zeros               4    0
l2_compress_failures            4    0
memory_throttle_count           4    0
duplicate_buffers               4    0
duplicate_buffers_size          4    0
duplicate_reads                 4    0
memory_direct_count             4    66583
memory_indirect_count           4    7657293
arc_no_grow                     4    0
arc_tempreserve                 4    0
arc_loaned_bytes                4    0
arc_prune                       4    0
arc_meta_used                   4    427048272
arc_meta_limit                  4    2076377600
arc_meta_max                    4    498721632

# free -m
             total       used       free     shared    buffers     cached
Mem:         15841      15385        456          0         75         74
-/+ buffers/cache:      15235        606
Swap:            0          0          0
    
por gertvdijk 13.03.2014 / 00:00

6 respostas

22

IMHO os parâmetros em / sys / module / zfs / parameters só podem ser definidos para 0 / 1 - disabled / enabled . " Correção: depende do parâmetro

Eu estou no mesmo barco querendo limitar o uso de memória do zfs e parece que é preciso criar um arquivo /etc/modprobe.d/zfs.conf e inserir o parâmetro e o valor desejado nele. Esta alteração entrará em vigor após a reinicialização.

echo "options zfs zfs_arc_max=34359738368" >> /etc/modprobe.d/zfs.conf

Para efetuar o módulo em execução, é possível alterar o parâmetro zfs_arc_max.

echo "34359738368" > /sys/module/zfs/parameters/zfs_arc_max

Observe o uso de > para substituir o conteúdo do arquivo, em contraste com o acréscimo ao arquivo com >> .

fonte: link

    
por 06.06.2014 / 21:39
5

link

este artigo é muito bom

iniciando a versão ZoL 0.6.2 você pode definir o c_max em tempo de execução, entretanto o tamanho do ARC não será liberado automaticamente. para forçar a RAM a ser liberada, é necessário exportar o zpool.

    
por 18.12.2014 / 18:59
4

Depois de modificar o tamanho do seu arco, você precisa descartar seus caches.

echo 3 > /proc/sys/vm/drop_caches

e aguarde (seu prompt não retornará imediatamente, mas outros processos continuarão sendo executados). Ele irá descarregar lentamente os caches (2,5 min para meu cache de 24 GB em 2 pares de invasão com 2 TB WD pretos em uma CPU de 4 GHz de 4 GHz em uma caixa com 64 GB) - cuidado, você de repente não terá caches, e qualquer os processos de leitura de dados serão retirados do disco bruto, assim você provavelmente verá que o IO espera pular por um tempo até que o cache seja repovoado.

    
por 18.02.2017 / 06:07
2

Um problema no qual você pode estar se metendo é o armazenamento em cache do ZFS dos arquivos da máquina virtual (discos virtuais). Para evitar que eu sempre defina a propriedade primarycache como "metadados" em sistemas de arquivos que contêm discos virtuais.

A lógica é que o sistema operacional convidado tem melhor dica sobre quais áreas de seus discos armazenar em cache.

    
por 22.09.2015 / 22:52
0

AFAIK uma das seguintes condições deve ser cumprida para adaptar o parâmetro.

  1. Em um sistema em execução: exporte todos os zpools, remova os módulos zfs, reabilite o módulo zfs (por definição, isso não pode ser feito se / estiver no zfs).
  2. Gere novamente a imagem do initramfs ao alterar o parâmetro para que, após a reinicialização, ela funcione. Isso é necessário, pois o local do arquivo zfs.conf ainda não está montado naquele momento no processo de inicialização.
por 11.08.2015 / 10:00
0

Você tem um extra " > " demais.

O comando deve ser

echo 1073741824 > /sys/module/zfs/parameters/zfs_arc_max

não " >> "

>> significa "adicionar a" (lista existente).
> significa "sobrescrever" (valor).

É por isso que o código de comando da sua pergunta não funciona.

    
por 21.03.2018 / 13:24

Tags