Embora eu não entenda sua necessidade de usar um sistema de arquivos robusto, isso parece uma duplicata do link
No seu caso, cada um dos seus arquivos dd seria de 4gb cada.
Estou pensando em armazenar arquivos grandes no sistema de arquivos vfat. Obviamente, a única maneira de armazenar arquivos maiores que 4GiB é dividi-los. Estou ciente de que podemos usar os comandos split
e cat
para dividir e mesclar arquivos. No entanto, para usar esses comandos, é necessário mais espaço para o (s) arquivo (s) resultante (s). Se estou entendendo como os sistemas de arquivos funcionam corretamente, nenhum arquivo é realmente excluído e desalocado até que eles sejam fechados. Para usar o menor espaço possível, seria necessária uma técnica funky que envolvesse truncate()
e invertesse o conteúdo do arquivo (lendo e encolhendo o arquivo original).
Existe algum módulo do kernel que cria um dispositivo de loop a partir de vários arquivos divididos? Ou um comando util que faz exatamente a mesma ideia que o meu?
Ou eu vou começar a fazer um deles. Oh! Posso fazer isso com mdadm
? O nível linear?
Embora eu não entenda sua necessidade de usar um sistema de arquivos robusto, isso parece uma duplicata do link
No seu caso, cada um dos seus arquivos dd seria de 4gb cada.
Tags linux filesystems large-files