Eu tenho visto vários arquivos de dados corrompidos recentemente - todos de um único cliente - que têm o que parece ser lixo no final.
Os arquivos (incluindo os dados corrompidos) são um múltiplo EXATO de 16384 (o mais recente foi 114688 bytes).
Eu sinto que deveria haver uma explicação simples que apontasse diretamente para o problema. Algo para fazer com tamanhos de cluster de alocação de arquivos e cache de disco.
Os dados adicionados ao final do arquivo são geralmente um pedaço de dados anteriores no arquivo repetido.
De volta aos meus 3 dias do DOS, eu teria dito que o arquivo não estava sendo fechado corretamente, mas isso está acontecendo com diferentes arquivos gerados por processos diferentes em (eu acho) servidores diferentes.
Pode haver um fator comum, como um determinado disco rígido ou servidor, mas no momento sugerir que "é um problema de hardware" não seria uma resposta aceitável.
OS - Não tenho certeza, pode ser uma variedade de sistemas operacionais.
Processo - Pode ser um problema de cópia de arquivos, mas se o arquivo for copiado novamente, a mesma corrupção ocorre.
Idioma - Até o momento, todas as ferramentas que geram os arquivos de dados são gravadas em Java.
Tags java file-corruption