Quais fatores afetam o valor ideal s3ql --max-obj-size?

1

Estou tentando entender todas as implicações relevantes do valor de --max-obj-size usado ao criar um s3ql sistema de arquivos. Ainda não encontrei uma descrição completa das implicações dessa opção, mas consegui juntar algumas partes dos documentos e grupos de discussão.

Principalmente, eu encontrei razões para usar valores maiores de --max-obj-size, o que me deixa imaginando, por que não usar um valor arbitrariamente grande (10mb? 100mb? 1gb?):

  • Valores menores significam que mais "inodes" são usados e pior desempenho do banco de dados sqlite (já que o mesmo número de arquivos requer mais entradas de inode)
  • Valores menores podem prejudicar o rendimento (especialmente para leituras sequenciais ).

    A partir da versão 1.8 changelog :

    As a matter of fact, a small S3QL block size does not have any advantage over a large block size when storing lots of small files. A small block size, however, seriously degrades performance when storing larger files. This is because S3QL is effectively using a dynamic block size, and the --blocksize value merperformanceely specifies an upper limit.

Até agora, as únicas vantagens que encontrei ou imaginei para tamanhos menores de blocos são:

  • Menos largura de banda usada para reescrever uma parte de um arquivo
  • Possivelmente melhor desduplicação

    The --min-obj-size option does not affect deduplication. Deduplication happens before blocks are grouped.

    The --max-obj-size affects deduplication, since it implicitly determines the maximum size of a block.

    Encontrado aqui :

Alguém pode oferecer um resumo dos trade-offs feitos ao selecionar um tamanho maior ou menor --max-obj ao criar um sistema de arquivos s3ql?

    
por Flimzy 25.08.2012 / 08:44

0 respostas

Tags