Atualmente estou tendo problemas para obter backups para o ElasticSearch funcionando corretamente por meio do sistema de snapshots. Por suas instruções, um repositório de snapshots deve ser configurado primeiro, usando este comando:
curl -XPUT 'http://$server_IP:9200/_snapshot/backup' -d '{
"type": "fs",
"settings": {
"location": "/data/backup/elasticsearch/snapshots",
"compress": true
}
}'
No entanto, quando executo esse comando, recebo este erro:
No handler found for uri [/_snapshot/backup] and method [PUT]
Esse erro não é muito útil quando pesquisado on-line, em qualquer formato semelhante. Eu posso trocar meu $ server_IP por 127.0.0.1 ou apenas 'localhost', e o erro irá mudar para:
curl: (7) Failed to connect to 127.0.0.1 port 9200: Connection refused
Ok, parece bastante fácil. Exceto que, se eu simplesmente enrolar para 127.0.0.1:9200, ele responde bem. O erro só existe se eu referenciar o repositório _snapshot ao tentar criá-lo.
Eu tenho um diretório Samba configurado e funcionando, e o sistema está escutando: 9200. O diretório do Samba tem permissões corretas quando testado de outros sistemas. Estou meio sem idéias sobre qual é o erro verdadeiro.
Este não é um sistema em cluster e está atuando como um único nó / fragmento mestre ElasticSearch. Eu configuro o Samba como mais uma etapa de solução de problemas e já que os documentos ES dizem que um diretório de armazenamento compartilhado é necessário. Seria possível fazer o backup do diretório de dados ElasticSearch simplesmente usando tar / gzip? Isso é para uma instalação do Graylog, portanto, preciso ter backups contínuos dos logs de entrada. Se eu puder fazer o backup / restauração desses através de um padrão tar / gzip, eu ficaria feliz se evitasse as chamadas acima. Minha única preocupação é como as informações são tratadas quando ES é inicializado, carrega seus índices, etc.