Ubuntu 16.04 mata sessão quando o uso de recursos é extremamente alto

3

Estou trabalhando no projeto no hadoop no meu computador. Quando inicio algum trabalho consumindo a maioria dos recursos disponíveis (100% da CPU, alto uso de RAM), 'algo' mata a sessão do meu usuário e todos os seus processos.

syslog:

Jun  8 21:38:46 michalo-desktop systemd[1]: Created slice User Slice of hadoop.
Jun  8 21:38:46 michalo-desktop systemd[1]: Starting User Manager for UID 1001...
Jun  8 21:38:46 michalo-desktop systemd[1]: Started Session 21 of user hadoop.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Paths.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Sockets.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Timers.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Basic System.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Default.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Startup finished in 126ms.
Jun  8 21:38:46 michalo-desktop systemd[1]: Started User Manager for UID 1001.
Jun  8 21:38:46 michalo-desktop systemd[1]: Stopping User Manager for UID 1001...
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Default.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Basic System.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Timers.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Sockets.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Shutdown.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Starting Exit the Session...
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Paths.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Received SIGRTMIN+24 from PID 12000 (kill).
Jun  8 21:38:46 michalo-desktop systemd[1]: Stopped User Manager for UID 1001.
Jun  8 21:38:46 michalo-desktop systemd[1]: Removed slice User Slice of hadoop.

O log não contém informações sobre o kill reson. kern.log não tem nada de interessante.

    
por michalo2882 08.06.2016 / 22:23

1 resposta

0

É o próprio Hadoop que tenta eliminar alguns de seus processos para reduzir o uso de recursos na máquina, mas, ao invés disso, mata todos os processos possíveis devido a um bug no comando kill .

    
por Zoltan 18.09.2016 / 10:36