O Linux tornou-se muito lento ao lidar com dados grandes

0

No ano passado eu comprei um computador, por cerca de US $ 1.800, por isso é relativamente high-end. Quando cheguei na primeira vez, fiquei particularmente satisfeito com a rapidez com que lidou com grandes consultas, importações e exportações do MySQL. Mas, em algum ponto do caminho, algo deu errado e não sei como diagnosticar o problema.

Qualquer trabalho que envolva o processamento de grandes quantidades de dados, por ex. arquivo gzipping c. 1GB +, ATUALIZAÇÕES em grandes tabelas MySQL etc. ficaram muito lentas. Acabei de realizar uma instrução de alteração intensiva em uma tabela de 240.000.000 de linhas em um servidor remoto, que é uma especificação menor. Isso levou cerca de 10 minutos. No entanto, executar a mesma consulta em uma tabela de 167.000.000 linhas no meu computador correu bem até atingir 860MB. Agora está escrevendo apenas 1MB a cada 15 segundos.

Alguém tem algum conselho sobre como depurar o problema?

Estou usando o LinuxMint (baseado no Ubuntu 12.04.) A partição home é criptografada, o que realmente desacelera o gzip. Eu tenho notado que a troca é mal usada, mas não tenho certeza se isso é porque há mais do que suficiente RAM. O sistema de arquivos é ext4. O servidor MySQL está em um disco rígido separado, mas foi bom quando eu o instalei pela primeira vez. Além das questões acima, não há outros problemas com isso.

Vou instalar um novo Ubuntu no 4º disco rígido para ver se isso é diferente.

    
por Kohjah Breese 30.05.2014 / 22:22

0 respostas