Muito mau desempenho do nfs / cifs

1

Eu montei um NAS no Ubuntu Linux 10.04.

Infelizmente eu tenho uma performance muito ruim de leitura / gravação, embora eu tenha jogado com várias opções (eu tenho que admitir que eu realmente não sei o que fazer lá - eu apenas alterei o tamanho do buffer e tal).

Eu encontrei algumas dicas de que o Linux cifs-client é conhecido por ser de alguma forma problemático. Mas usar nfs-common em vez de cifs fornece resultados semelhantes em termos de desempenho.

O mais estranho é: quando eu tento uma cópia segura ( scp ), tudo funciona bem. Infelizmente, o login seguro só é permitido para o administrador do NAS - portanto, esta não é uma opção para uso diário: (.

Editar: Eu tentei montar com e sem a opção async e testei a troughput para blocos de tamanhos diferentes. Aqui estão alguns resultados de benchmark:

com /etc/fstab

xxx.xx.xx.xx:Share  /media/Share       nfs    rw,nodev,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountvers=3,mountproto=tcp   0       0

dd me diz:

dd if=/dev/zero of=/media/Share/bigfile bs=1M count=20
20+0 Datensätze ein
20+0 Datensätze aus
20971520 Bytes (21 MB) kopiert, 33,4046 s, 628 kB/s

dd if=/dev/zero of=/media/Share/bigfile bs=1k count=2000
2000+0 Datensätze ein
2000+0 Datensätze aus
2048000 Bytes (2,0 MB) kopiert, 3,60063 s, 569 kB/s

com /etc/fstab

xxx.xx.xx.xx:Share  /media/Share       nfs    rw,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountvers=3,mountproto=tcp,async   0       0

dd me diz:

dd if=/dev/zero of=/media/Share/bigfile bs=1M count=20
20+0 Datensätze ein
20+0 Datensätze aus
20971520 Bytes (21 MB) kopiert, 34,2046 s, 613 kB/s

dd if=/dev/zero of=/media/Share/bigfile bs=1k count=2000
2000+0 Datensätze ein
2000+0 Datensätze aus
2048000 Bytes (2,0 MB) kopiert, 3,79684 s, 539 kB/s

Editar: tentei acessar outro NAS na rede com resultados muito semelhantes. Então, parece que o problema é realmente no meu sistema cliente.

Sou grato por qualquer sugestão para resolver este problema.

    
por Jakob S. 26.07.2011 / 15:08

1 resposta

1

O suspeito habitual seria uma gravação síncrona. Tente montar o NFS com a opção assíncrona.

Eu nunca joguei com esse tamanho grande e tamanho reduzido. Tente algo sobre 8k e veja se ele pode te ajudar.

Editar:

Você pode verificar no NAS que está exportando o sistema de arquivos com a opção async?

Eu também tentaria uma opção diferente, começando com a redução do número deles:

rw,hard,async
rw,hard,async,rsize=8192,wsize=8192
rw,hard,async,rsize=8192,wsize=8192,vers=3
rw,hard,async,rsize=8192,wsize=8192,vers=3,relatime
...

etc

Você pode fazer login no NAS e monitorar seu desempenho também? Um caso que eu encontrei foi um NAS gerando vários daemons NFS e morrendo sob a carga quando um cliente estava conectado.

    
por 26.07.2011 / 15:45