But your classic CVS/SVN system has the obvious drawback of needing a full repository to work, and I'd really rather not have two copies of my 60gb+ MP3 folder sitting on a machine somewhere, as well as not traditionally dealing with binary deltas very well.
Com o CVS / SVN você tem um repositório um e várias cópias de trabalho. Portanto, o repositório contém todos os arquivos uma vez mais todo o histórico de cada arquivo. A cópia de trabalho contém todos os arquivos uma vez mais alguns dados adicionais por arquivo (normalmente aproximadamente o tamanho do arquivo).
Aproximadamente: Vamos supor que nosso sistema de controle de revisão não pode armazenar os arquivos binários de maneira eficiente (não é verdade, mas para simplificar). Sua coleção é de 60 GB de arquivos MP3. Se você tem 10 revisões por arquivo em média e nós negligenciamos a compressão (porque MP3s compactam mal) seu repo será ca. 600 GB e sua cópia de trabalho ca. 120 GB.
So, Distributed Version Control starts sounding pretty good at this point.
Em um sistema distribuído, toda cópia de trabalho é essencialmente um repositório, o que significa cada cópia de trabalho contém todos os arquivos mais o histórico.
As mesmas suposições acima, todas as cópias terão ca. 600 GB.
Em resumo, o sistema distribuído exigirá mais espaço do que o centralizado.
EDITAR:
Mesmo que sua pergunta seja mais sobre um grande número de arquivos binários do que arquivos binários grandes no controle de versão, o seguinte post pode ser interessante: Revisitando problemas com arquivos binários grandes.