O OP perguntou sobre arquivamento paralelo, não compressão paralela.
Se o material de origem estiver vindo de um sistema de arquivos no qual diferentes diretórios / arquivos possam estar em discos diferentes, ou até mesmo um único disco rápido que exceda a velocidade de entrada da (s) ferramenta (s) de compactação, fluxos de entrada indo para as camadas de compressão.
A questão significativa torna-se, como é a saída de um arquivo paralelo? Não é mais apenas um único descritor de arquivo / stdout
, mas um descritor de arquivo por encadeamento.
Um exemplo disso até agora é o modo de despejo paralelo do Postgresql pg_dump
, em que é feito o dump para um diretório, com encadeamentos trabalhando sobre o conjunto de tabelas para backup (fila de trabalho com vários encadeamentos consumindo a fila).
Não tenho certeza de nenhum arquivador paralelo real que seja mainstream. Houve um hack para o Solaris Tar para uso no ZFS: link
Existem algumas ferramentas de backup dedicadas que executam com sucesso vários threads, mas muito mais que apenas dividem a carga de trabalho por diretório em um nível alto.