por que os zfs nos fluxos de transferência do linux são reportados incorretamente após a expansão da matriz?

3

Eu atualizei as unidades em uma matriz Raidz de 4 unidades em um servidor NAS e a matriz foi expandida automaticamente para o novo tamanho. Ao testar as taxas de transferência do servidor NAS agora observo que ao executar grandes transferências de leitura o desempenho é ruim, lutando para ficar acima de 10MB / s embora iotop e zpool iostat possam relatar números muito altos até 500MB / s O que poderia estar levando a isso comportamento estranho? Como eu tenho atualizado o array, também posso observar que ele executa o mesmo, quer haja 4 dispositivos on-line ou degradados para 3.

O servidor está conectado com uma conexão de rede única gigabit e pode saturá-lo com uma única unidade usando ext4

    
por barrymac 23.05.2015 / 01:06

1 resposta

1

Descobri que como estava experimentando as configurações de cache para ver o que aconteceria, deixei o cache principal desativado, o que pode resultar em IO real muito maior do que o IO lógico devido a

[application] reads a file, gets 4k (pagesize?) of data and processes it, then it reads the next 4k, etc.

ZFS, however, cannot read just 4k. It reads 128k (recordsize) by default. Since there is no cache (you've turned it off) the rest of the data is thrown away.

128k / 4k = 32

32 x 2.44GB = 78.08GB

de fóruns do FreeBSD

    
por 16.09.2015 / 22:36