Como configurar opções customizadas do ceph OSD no ceph-ansible?

0

Atualmente estou implantando um cluster ceph em algumas máquinas baseadas em ARM, ou seja, o HC2 do ODROID equipado com 4 TB Red Drives da WD. Eu também encontrei um artigo de laboratórios da WD , fazendo a mesma tarefa em larga escala (504 OSDs ), sugerindo ajustar as configurações do OSD com

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

Agora eu me pergunto (não apenas por essas opções), como colocá-las no ansible group_vars ou host vars, para acomodar os recursos relativamente baixos nos HC2s.

Atualmente, acredito que não é possível com os atuais playbooks confiáveis.

Eu realmente aprecio, se alguém puder me dar alguma dica sobre isso. O ceph-ansible não parece realmente usar arquivos de modelo para a configuração (apenas como espaços reservados), então como ele poderia ser estendido ou ajustado para tornar essas configurações possíveis?

    
por themole 10.03.2018 / 18:23

1 resposta

2

Isso é possível com o parâmetro ceph_conf_overrides ( link ).

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32
    
por 09.05.2018 / 09:35

Tags