У меня возникли трудности с попыткой понять, как использовать systemd.
Я хотел бы запустить кластер Apache Spark после загрузки, используя следующую команду:
sudo ./path/to/spark/sbin/start-all.sh
Затем запустите эту команду, когда система готовится к перезагрузке / завершению работы:
sudo ./path/to/spark/sbin/stop-all.sh
Есть ли какие-либо учебные пособия для systemd?
Я не могу найти ничего полезного для начала работы или базового шаблона, на котором я могу основываться.
Я попытался использовать чрезвычайно простой (файл: / lib / systemd / system / spark.service):
[Unit]
Description=Spark service
[Service]
ExecStart=sudo ./path/to/spark/sbin/start-all.sh
Что не работает.
Любая помощь приветствуется!
Ваш файл .service должен выглядеть так:
[Unit]
Description=Spark service
[Service]
ExecStart=/path/to/spark/sbin/start-all.sh
[Install]
WantedBy=multi-user.target
Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:
Поместите его в папку [ f10] с именем myfirst.service Сделайте свой скрипт исполняемым с помощью:chmod u+x /path/to/spark/sbin/start-all.sh
Запустите его: sudo systemctl start myfirst
Включите его для запуска при загрузке: sudo systemctl enable myfirst
Остановите его: sudo systemctl stop myfirst
Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]
Посмотрите на приведенные ниже ссылки для более systemd опций.
[Unit]
Description=Apache Spark Master and Slave Servers
After=network.target
After=systemd-user-sessions.service
After=network-online.target
[Service]
User=spark
Type=forking
ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh
ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh
TimeoutSec=30
Restart=on-failure
RestartSec=30
StartLimitInterval=350
StartLimitBurst=10
[Install]
WantedBy=multi-user.target
Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:
sudo systemctl start spark.service
sudo systemctl stop spark.service
sudo systemctl enable spark.service
Чтобы настроить службу:
Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.
https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /
https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files [!d26 ]
Ваш файл .service должен выглядеть так:
[Unit]
Description=Spark service
[Service]
ExecStart=/path/to/spark/sbin/start-all.sh
[Install]
WantedBy=multi-user.target
Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:
Поместите его в папку /etc/systemd/system с именем myfirst.service Сделайте свой скрипт исполняемым с помощью:chmod u+x /path/to/spark/sbin/start-all.sh
Запустите его: sudo systemctl start myfirst
Включите его для запуска при загрузке: sudo systemctl enable myfirst
Остановите его: sudo systemctl stop myfirst
Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]
Посмотрите на приведенные ниже ссылки для более systemd опций.
[Unit]
Description=Apache Spark Master and Slave Servers
After=network.target
After=systemd-user-sessions.service
After=network-online.target
[Service]
User=spark
Type=forking
ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh
ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh
TimeoutSec=30
Restart=on-failure
RestartSec=30
StartLimitInterval=350
StartLimitBurst=10
[Install]
WantedBy=multi-user.target
Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:
sudo systemctl start spark.service
sudo systemctl stop spark.service
sudo systemctl enable spark.service
Чтобы настроить службу:
Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.
https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /
https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files
Ваш файл .service должен выглядеть так:
[Unit]
Description=Spark service
[Service]
ExecStart=/path/to/spark/sbin/start-all.sh
[Install]
WantedBy=multi-user.target
Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:
Поместите его в папку /etc/systemd/system с именем myfirst.service Сделайте свой скрипт исполняемым с помощью:chmod u+x /path/to/spark/sbin/start-all.sh
Запустите его: sudo systemctl start myfirst
Включите его для запуска при загрузке: sudo systemctl enable myfirst
Остановите его: sudo systemctl stop myfirst
Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]
Посмотрите на приведенные ниже ссылки для более systemd опций.
[Unit]
Description=Apache Spark Master and Slave Servers
After=network.target
After=systemd-user-sessions.service
After=network-online.target
[Service]
User=spark
Type=forking
ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh
ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh
TimeoutSec=30
Restart=on-failure
RestartSec=30
StartLimitInterval=350
StartLimitBurst=10
[Install]
WantedBy=multi-user.target
Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:
sudo systemctl start spark.service
sudo systemctl stop spark.service
sudo systemctl enable spark.service
Чтобы настроить службу:
Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.
https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /
https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files