Isso é possível com o parâmetro ceph_conf_overrides
( link ).
ceph_conf_overrides:
osd:
osd map cache size: 40
osd map max advance: 32
osd map message max: 32
Atualmente estou implantando um cluster ceph em algumas máquinas baseadas em ARM, ou seja, o HC2 do ODROID equipado com 4 TB Red Drives da WD. Eu também encontrei um artigo de laboratórios da WD , fazendo a mesma tarefa em larga escala (504 OSDs ), sugerindo ajustar as configurações do OSD com
osd map cache size = 40
osd map max advance = 32
osd map message max = 32
Agora eu me pergunto (não apenas por essas opções), como colocá-las no ansible group_vars ou host vars, para acomodar os recursos relativamente baixos nos HC2s.
Atualmente, acredito que não é possível com os atuais playbooks confiáveis.
Eu realmente aprecio, se alguém puder me dar alguma dica sobre isso. O ceph-ansible não parece realmente usar arquivos de modelo para a configuração (apenas como espaços reservados), então como ele poderia ser estendido ou ajustado para tornar essas configurações possíveis?
Isso é possível com o parâmetro ceph_conf_overrides
( link ).
ceph_conf_overrides:
osd:
osd map cache size: 40
osd map max advance: 32
osd map message max: 32
Tags ansible