tl; dr - Quais são os valores readahead
adequados para os diferentes volumes EBS PIOPS em um array RAID 10?
E quanto aos próprios volumes físicos e lógicos do RAID 10?
E quanto ao tamanho do bloco da chamada mdadm
e tamanho do bloco da chamada dd
?
A longa história:
Estou usando o MongoDB Cloud (anteriormente MMS) para gerenciar meu conjunto de réplicas.
Escrevi o seguinte script que inicia uma instância (ou mais) e prepara-os para a instalação do agente de automação MMS, incluindo a configuração do RAID 10, a configuração do readahead, a desativação de páginas enormes, a formatação com o xfs, a configuração do munin , etc.
Você pode ver o script aqui - link
A maior parte da documentação e das informações da comunidade se referem aos valores da leitura antecipada de um único volume do EBS (geralmente magnético). O que eu não encontrei foram os valores de leitura sugeridos para vários volumes EBS PIOPS, usados em uma configuração RAID 10. Há também o tamanho do bloco da criação do RAID e o tamanho do bloco ao usar o dd.
Eu quero criar um RAID 10 a partir de 4 volumes EBS PIOPS , cada um com 50 GB e 250 IOPS (o que deve me trazer um único Volume de 100GB com 500 IOPS, uma vez RAID'ed, certo?), E use XFS no volume RAID para a pasta de dados do mongo. Eu tenho as seguintes perguntas:
mongod - fsize unlimited
mongod - cpu unlimited
mongod - as unlimited
mongod - nofile 64000
mongod - rss unlimited
mongod - nproc 64000
A configuração acima também é boa (volumes RAID 10 mais de 4 EBS PIOPS)?
Eu adoraria receber seu feedback geral sobre o roteiro também - há algo que eu perdi? Existe algo que possa ser configurado / configurado melhor?
Eu toquei bastante no MongoDB Cloud e, embora ofereça a opção de criar as instâncias relevantes - tudo de dentro do painel de nuvem do mongodb - ele é limitado em relação às melhores práticas de produção que você publica (matriz RAID 10, sub-rede privada, configuração do conjunto de réplicas, etc.).