No AIX, você pode usar o comando dbx
para analisar os arquivos principais ( tutorial ). Na maioria dos Unices, se você executar file /path/to/core.10042014100000
, ele informará qual processo criou o arquivo principal.
Eu tenho uma situação complicada. Primeiro de tudo eu sou um noob com conhecimento e experiência não-para-pouco UNIX. Eu trabalho para uma empresa enorme com muitos protocolos de segurança e não posso depurar ou examinar o código-fonte dos programas. Mas espero que vocês possam me ajudar a me aproximar do problema, para que eu possa denunciá-lo à pessoa certa.
Eles têm um software muito antigo em execução em um servidor UNIX. A tarefa deste programa é processar dados de um banco de dados e colocar arquivos de log em uma unidade de rede. Como os arquivos de log não são muito grandes e o software remove os logs antigos ao colocar novos, a unidade de rede é muito limitada no espaço. Este programa sempre funcionou perfeitamente, mas ultimamente foram gerados erros que o programa não pôde excluir os arquivos de log antigos.
Além disso, foi criado um arquivo que, presumo, é um dump principal. O arquivo é denominado core.10042014100000
e um novo deles é criado a cada hora (o programa é executado a cada hora). No entanto, em um PC com Windows, o arquivo não pode ser lido, copiado e removido. (Não tenho certeza sobre o sistema UNIX, mas não tenho acesso a isso)
Alguém por favor pode me ajudar a chegar mais perto de descobrir o que está errado? Como, qual processo cria o arquivo principal ?, Por que o arquivo principal é criado ?, Por que não posso fazer nada com ele? e isso poderia ter alguma coisa a ver com os registros antigos que não estão sendo removidos?
No AIX, você pode usar o comando dbx
para analisar os arquivos principais ( tutorial ). Na maioria dos Unices, se você executar file /path/to/core.10042014100000
, ele informará qual processo criou o arquivo principal.