Eles não deveriam; os arquivos são padrões liga / desliga e todas as operações, como mover e copiar, são projetadas para mover dados inteiros, sem perder nenhum. Não é como o jogo humano de "telefone", onde copiar o arquivo várias vezes o torna mais confuso e confuso a cada vez, até que tudo o que resta é um absurdo.
Mas , toda vez que você faz alguma coisa, há uma pequena chance de dar errado. Quanto mais coisas você fizer, mais chances você encontrará em um deles dando errado. Um deles, por exemplo, é um corte de energia no meio de uma jogada - com o que você vai acabar? Um arquivo parcial? Nenhum arquivo? Dois arquivos?
Nada é perfeito; aqui, em 2005, um estudo analisa as taxas de erro da unidade de disco e descobre:
We observed 3 loss events while reading 1.4 PB, This is 3 lost files. In the datacenter environment we lost 2 of 32,000 10GB files, In the office setting (System 1) we lost one 10GB file in 35,000 tries, and no 100GB files in 7,560 tries.
Isso é apenas erros de disco, eles também "experienced at least 4 controller firmware or driver errors"
.
Além disso, há erros de memória - a chance de corrupção entre o carregamento de informações na memória do computador e a gravação novamente. Há um infame estudo do Google em que eles rastreiam erros de memória em seus milhares de servidores, citados na Wikipedia aqui , que afirma:
"A very large-scale study based on Google's very large number of servers was presented at the SIGMETRICS/Performance’09 conference.[4] The actual error rate [..] 25,000 to 70,000 errors per billion device hours per megabit [..] more than 8% of DIMM memory modules affected by errors per year."
E, claro, há uma chance de erro, uma leitura incorreta, uma corrupção pelo power spike ou raio cósmico, uma falha de design, empurrando para fora uma baixa tolerância de hardware barato, na mídia magnética do disco, na transferência por cabos , na placa-mãe, os chipsets, o processador, a memória, o firmware ou o software e tudo de volta.
Por acaso, aqui está um artigo fantástico baseado na ideia de que se um dispositivo de computação corrompe dados na memória enquanto procura uma Internet endereço, pode procurar o endereço errado. Assim, o autor registrou alguns "endereços errados" (o que você obteria se corrompesse um pouco do nome de um site popular) para ver se havia algum dispositivo conectado a eles - ele tinha 52.000 solicitações em quase 6 meses.
O estudo de como tornar as coisas / mais / confiáveis na computação é uma área ocupada. De CRCs e somas de verificação, a RAID com paridade, o sistema de arquivos baseado na árvore de soma ZFS, a replicação automática, a memória ECC e assim por diante.