executando um comando tar consome todos os recursos

0

Estou executando uma aplicação Rails no meu servidor Ubuntu 12.04. Eu configurei um cron job para fazer backup de todos os arquivos enviados para o meu aplicativo todas as manhãs às 2 da manhã. É um monte de arquivos (cerca de 900 mb). Mas quando os usuários têm que usar o aplicativo no final da manhã, eles podem acessá-lo. Então eu entrei com o SSH (que fica incrivelmente lento) quando finalmente eu executo um comando top e vejo que o processo gzip está preenchendo todos os top 10. Eles são bem pequenos, mas eu suspeito que há ainda mais deles.

Este é o comando tar executado

tar -cvzf $BASEBACKUP/uploads-$DATE.tar.gz /var/www/bptrial/current/public/uploads/* --exclude=tmp

Meu crontab

* 2 * * * cd /home/user/backup && sh mysql_backup.sh && sh files_backup.sh  >> /tmp/cron.log

É preciso levar muitas horas para compactar 900 MB de arquivos? E por que tem que comer todos os recursos?

    
por Jepzen 19.09.2014 / 15:54

1 resposta

0

Eu acho que fkraiem está correto.
Para elaborar:

De acordo com as páginas man do crontab

user@host $ man 5 crontab 

Os campos de hora e data são:

          field          allowed values
          -----          --------------
          minute         0-59
          hour           0-23
          day of month   1-31
          month          1-12 (or names, see below)
          day of week    0-7 (0 or 7 is Sun, or use names)

   A field may be an asterisk (*), which always stands for ''first-last''.

Em seu comando

#m h  dom mon dow   command  
 * 2   *   *   *    cd /home/user/backup...  

Você está dizendo, A CADA minuto de hora 2 de cada dia de cada mês de cada dia da semana. Em outras palavras, cada minuto das 2 da manhã iniciará outra instância do seu comando.

    
por eugenevd 19.09.2014 / 21:52