kibana: nenhum erro de índice

2

Nenhuma das respostas existentes ajudou, portanto, aqui está uma nova pergunta.

Usecase : redirecionando o syslog (ou) monitorando o arquivo estático.

Eu instalei com êxito logstash (1.4.2), elasticsearch (1.1.1) e kibana (3.0.1), mas lutei para me livrar do erro

No results There were no results because no indices were found that match your selected time span
  • posso visitar o link - > Mensagem de sucesso de 200
  • Visitando o link - > {} - > dicionário vazio!
  • A mesma coisa funciona desta CLI /opt/logstash/bin/logstash -f </etc/logstash/conf.d/10-syslog.conf>

Os arquivos de logstash de amostra usados são os abaixo. Por favor, deixe-me saber, se mais alguma coisa for necessária do meu fim.

  1. syslog (escutando na porta 9000, sim eu adicionei ". @@ localhost: 9000" a /etc/rsyslog.d/50-default.conf e reiniciei o rsyslog)

    sudo cat > /etc/logstash/conf.d/10-syslog.conf <<EOF
    input {
      tcp {
        port => 9000
        type => syslog
      }
      udp {
        port => 9000
        type => syslog
      }
    }
    filter {
      if [type] == "syslog" {
        grok {
          match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program}(?:\[%{POSINT:syslog_pid}\])?: %{GREEDYDATA:syslog_message}" }
          add_field => [ "received_at", "%{@timestamp}" ]
          add_field => [ "received_from", "%{host}" ]
        }
        syslog_pri { }
        date {
          match => [ "syslog_timestamp", "MMM  d HH:mm:ss", "MMM dd HH:mm:ss" ]
        }
      }
    }
    output {
      elasticsearch { host => localhost }
      stdout { codec => rubydebug }
    }
    EOF
    
  2. Arquivo estático (arquivo presente com o tipo de dados do syslog)

    input {
       file {
          path => "/var/log/awasthi.log"
          type => syslog
          start_position => "beginning"
          sincedb_path => "/dev/null"
       }
    }
    
    filter {
    if [type] == "syslog" {
      grok {
        match => [ "message", "%{SYSLOGTIMESTAMP} %{NOTSPACE:hostname1}/%{NOTSPACE}"]
      }
    }
    }
    
    output {
      stdout { codec => rubydebug }
    }
    
por user3247463 09.11.2014 / 20:11

2 respostas

0

Como mencionado em outro tópico:

"Eu tinha algo parecido, parece que você não configurou as ACLs para permitir que o usuário do logstash exibisse esse arquivo de log.

Use 'setfacl -m u: logstash-: r-x / var / log' por exemplo, e então teste editando o / etc / passwd e dando ao usuário logstash um shell temporariamente. Então, su - logstash, e tente e cd ou cat aquele arquivo. Se funcionar, os dados devem aparecer na sua configuração do Kibana. "

Eu uso o redis infront of elasticsearch, para que eu possa testar se o logstash está funcionando simplesmente executando 'LLEN' e 'LPOP'.

    
por 17.12.2014 / 13:53
0

A documentação do elasticsearch 1.1 não está mais disponível (1.3 ou 0.9 são), e o comportamento de rede padrão do ES foi alterado (desde a escuta original em IPs sem loopback até a escuta do loopback por padrão).

Por link :

The network.publish_host setting allows to control the host the node will publish itself within the cluster so other nodes will be able to connect to it. Of course, this can’t be the anyLocalAddress, and by default, it will be the first non loopback address (if possible), or the local address.

Embora a questão agora seja em grande parte acadêmica, o problema mais provável que o autor da pergunta enfrentava era a tentativa de enviar dados para localhost , em vez de example.com (que, segundo as informações da pergunta, funcionam).

Com uma versão ES mais recente, suspeito que esse problema não tenha ocorrido (porque o ES agora escuta apenas o localhost por padrão).

    
por 14.03.2017 / 09:15