Ubuntu 16.04 уничтожает сессию, когда использование ресурсов чрезвычайно высоко

Я работаю над проектом в hadoop на моем компьютере. Когда я запускаю некоторое задание, использующее большинство имеющихся ресурсов (100% ЦП, высокого Использования оперативной памяти), 'что-то' уничтожает сессию моего пользователя и все ее процессы.

системный журнал:

Jun  8 21:38:46 michalo-desktop systemd[1]: Created slice User Slice of hadoop.
Jun  8 21:38:46 michalo-desktop systemd[1]: Starting User Manager for UID 1001...
Jun  8 21:38:46 michalo-desktop systemd[1]: Started Session 21 of user hadoop.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Paths.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Sockets.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Timers.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Basic System.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Default.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Startup finished in 126ms.
Jun  8 21:38:46 michalo-desktop systemd[1]: Started User Manager for UID 1001.
Jun  8 21:38:46 michalo-desktop systemd[1]: Stopping User Manager for UID 1001...
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Default.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Basic System.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Timers.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Sockets.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Reached target Shutdown.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Starting Exit the Session...
Jun  8 21:38:46 michalo-desktop systemd[11932]: Stopped target Paths.
Jun  8 21:38:46 michalo-desktop systemd[11932]: Received SIGRTMIN+24 from PID 12000 (kill).
Jun  8 21:38:46 michalo-desktop systemd[1]: Stopped User Manager for UID 1001.
Jun  8 21:38:46 michalo-desktop systemd[1]: Removed slice User Slice of hadoop.

Журнал не содержит информации о причине уничтожения. kern.log ничего не имеет интересным.

4
задан 18 September 2016 в 22:59

1 ответ

Это - сам Hadoop, который пытается уничтожить некоторые его процессы для сокращения использования ресурсов на машине, но вместо этого это уничтожает все процессы, это может из-за ошибка в эти kill команда.

1
ответ дан 18 September 2016 в 22:59

Другие вопросы по тегам:

Похожие вопросы: