Демонтаж службы с использованием systemd и создание файла PID, который запускается при загрузке [duplicate]

Анализ вывода ls всегда приводит к горю. См. Это объяснение. Используйте stat (man stat).

из man stat:

NAME
       stat - display file or file system status

SYNOPSIS
       stat [OPTION]... FILE...

DESCRIPTION
       Display file or file system status.
...

       %b     number of blocks allocated (see %B)

       %B     the size in bytes of each block reported by %b
...
       %n     file name

И пример моей системы YMMV:

$ stat --format="%n %b %B" .bashrc $HOME
.bashrc 32 512
/home/w3 192 512
47
задан 7 September 2017 в 04:36

2 ответа

Ваш файл .service должен выглядеть так:

[Unit] Description=Spark service [Service] ExecStart=/path/to/spark/sbin/start-all.sh [Install] WantedBy=multi-user.target

Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:

Поместите его в папку /etc/systemd/system с именем myfirst.service Сделайте свой скрипт исполняемым с помощью: chmod u+x /path/to/spark/sbin/start-all.sh Запустите его: sudo systemctl start myfirst Включите его для запуска при загрузке: sudo systemctl enable myfirst Остановите его: sudo systemctl stop myfirst

Примечания:

Поместите его в папку /etc/systemd/system с именем myfirst.service

Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]

UPDATE

Посмотрите на приведенные ниже ссылки для более systemd опций.

[Unit] Description=Apache Spark Master and Slave Servers After=network.target After=systemd-user-sessions.service After=network-online.target [Service] User=spark Type=forking ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh TimeoutSec=30 Restart=on-failure RestartSec=30 StartLimitInterval=350 StartLimitBurst=10 [Install] WantedBy=multi-user.target

Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:

sudo systemctl start spark.service sudo systemctl stop spark.service sudo systemctl enable spark.service

Дальнейшее чтение

Чтобы настроить службу:

Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.

https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /

https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files

42
ответ дан 18 July 2018 в 00:22

Ваш файл .service должен выглядеть так:

[Unit] Description=Spark service [Service] ExecStart=/path/to/spark/sbin/start-all.sh [Install] WantedBy=multi-user.target

Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:

Поместите его в папку /etc/systemd/system с именем myfirst.service Сделайте свой скрипт исполняемым с помощью: chmod u+x /path/to/spark/sbin/start-all.sh Запустите его: sudo systemctl start myfirst Включите его для запуска при загрузке: sudo systemctl enable myfirst Остановите его: sudo systemctl stop myfirst

Примечания:

Поместите его в папку /etc/systemd/system с именем myfirst.service

Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]

UPDATE

Посмотрите на приведенные ниже ссылки для более systemd опций.

[Unit] Description=Apache Spark Master and Slave Servers After=network.target After=systemd-user-sessions.service After=network-online.target [Service] User=spark Type=forking ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh TimeoutSec=30 Restart=on-failure RestartSec=30 StartLimitInterval=350 StartLimitBurst=10 [Install] WantedBy=multi-user.target

Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:

sudo systemctl start spark.service sudo systemctl stop spark.service sudo systemctl enable spark.service

Дальнейшее чтение

Чтобы настроить службу:

Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.

https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /

https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files

42
ответ дан 24 July 2018 в 17:12

Другие вопросы по тегам:

Похожие вопросы: