Este é um problema comum, a lista de discussão do ceph é um arquivo muito útil para estas questões, veja isso . Você pode reduzir os valores de bluestore_cache_size, os padrões são 3GB para um SSD e 1 GB para um HDD OSD:
# If bluestore_cache_size is zero, bluestore_cache_size_hdd or bluestore_cache_size_ssd will be used instead.
host1:~ # ceph daemon osd.3 config show | grep bluestore_cache_size
"bluestore_cache_size": "0",
"bluestore_cache_size_hdd": "1073741824",
"bluestore_cache_size_ssd": "3221225472",
Mas, de acordo com nosso monitoramento em um cluster de produção, a memória residual é de cerca de 3 GB para um HDD-OSD, então você terá que ajustar esses valores às suas necessidades. A referência de configuração é aqui .
Eu recomendaria começar com um OSD primeiro e depois observar o desempenho do seu nó; em seguida, adicione outro OSD se a memória (ou outras medições) estiver ok. Se você atingir os limites com um ou dois OSDs, terá que ajustar as configurações de acordo com suas necessidades. Os valores podem ser alterados online:
host1:~ # ceph daemon osd.<ID> config set bluestore_cache_size[_hdd|_ssd] <VALUE>
Mudanças permanentes de configurações precisam ser armazenadas em /etc/ceph/ceph.conf