- Ler arquivos de log grandes não é uma boa ideia
- você precisa primeiro filtrá-los para as linhas necessárias e depois analisá-las
- mesmo assim, se possível (e se as linhas filtradas também forem muito),
você deve executar filtros secundários e contar scripts para analisá-los
- Quando você tem um arquivo estático grande e conhece os filtros para eliminar linhas dele,
é sempre uma boa idéia armazenar a saída filtrada (em vez de tentar examiná-la imediatamente).- Dessa forma, você pode executar filtros secundários na saída filtrada e eles não precisarão ser executados novamente na coisa inteira
- assim, em seu exemplo, armazene a primeira saída em um novo arquivo e, quando souber que outro filtro o aplica nesse arquivo armazenado
- claro, isso implica em algum espaço de armazenamento para o arquivo filtrado.
Funciona melhor se seus filtros reduzirem o arquivo real em grande quantidade
- Ferramenta de linux comum como '
grep
','sed
','AWK
'geralmente é suficiente para processar muito bem o arquivo de log de texto.
Eu tenho processado arquivos de log na ordem de 10 GB freqüentemente com essas coisas. Você pode criar suas próprias ferramentas com essas coisas em 'bash scripts
'. - Não subestime '
vim
', ele também pode manipular arquivos grandes (mas levará tempo, então forneça arquivos filtrados)