Анализ вывода ls всегда приводит к горю. См. Это объяснение. Используйте stat (man stat).
из man stat:
NAME
stat - display file or file system status
SYNOPSIS
stat [OPTION]... FILE...
DESCRIPTION
Display file or file system status.
...
%b number of blocks allocated (see %B)
%B the size in bytes of each block reported by %b
...
%n file name
И пример моей системы YMMV:
$ stat --format="%n %b %B" .bashrc $HOME
.bashrc 32 512
/home/w3 192 512
Ваш файл .service должен выглядеть так:
[Unit]
Description=Spark service
[Service]
ExecStart=/path/to/spark/sbin/start-all.sh
[Install]
WantedBy=multi-user.target
Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:
Поместите его в папку /etc/systemd/system с именем myfirst.service Сделайте свой скрипт исполняемым с помощью:chmod u+x /path/to/spark/sbin/start-all.sh
Запустите его: sudo systemctl start myfirst
Включите его для запуска при загрузке: sudo systemctl enable myfirst
Остановите его: sudo systemctl stop myfirst
Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]
Посмотрите на приведенные ниже ссылки для более systemd опций.
[Unit]
Description=Apache Spark Master and Slave Servers
After=network.target
After=systemd-user-sessions.service
After=network-online.target
[Service]
User=spark
Type=forking
ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh
ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh
TimeoutSec=30
Restart=on-failure
RestartSec=30
StartLimitInterval=350
StartLimitBurst=10
[Install]
WantedBy=multi-user.target
Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:
sudo systemctl start spark.service
sudo systemctl stop spark.service
sudo systemctl enable spark.service
Чтобы настроить службу:
Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.
https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /
https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files
Ваш файл .service должен выглядеть так:
[Unit]
Description=Spark service
[Service]
ExecStart=/path/to/spark/sbin/start-all.sh
[Install]
WantedBy=multi-user.target
Теперь сделайте еще несколько шагов, чтобы включить и использовать файл .service:
Поместите его в папку /etc/systemd/system с именем myfirst.service Сделайте свой скрипт исполняемым с помощью:chmod u+x /path/to/spark/sbin/start-all.sh
Запустите его: sudo systemctl start myfirst
Включите его для запуска при загрузке: sudo systemctl enable myfirst
Остановите его: sudo systemctl stop myfirst
Поместите его в папку /etc/systemd/system с именем myfirst.service [ ! d4]
Посмотрите на приведенные ниже ссылки для более systemd опций.
[Unit]
Description=Apache Spark Master and Slave Servers
After=network.target
After=systemd-user-sessions.service
After=network-online.target
[Service]
User=spark
Type=forking
ExecStart=/opt/spark-1.6.1-bin-hadoop2.6/sbin/start-all.sh
ExecStop=/opt/spark-1.6.1-bin-hadoop2.6/sbin/stop-all.sh
TimeoutSec=30
Restart=on-failure
RestartSec=30
StartLimitInterval=350
StartLimitBurst=10
[Install]
WantedBy=multi-user.target
Теперь то, что мы имеем выше, просто рудиментарно, здесь является полной установкой для искры:
sudo systemctl start spark.service
sudo systemctl stop spark.service
sudo systemctl enable spark.service
Чтобы настроить службу:
Прочтите следующие ссылки. Spark - сложная настройка, поэтому вы должны понимать, как она интегрируется с сервисом init Ubuntu.
https://datasciencenovice.wordpress.com/2016/11/30/spark-stand-alone-cluster-as -a-systemd-service-ubuntu-16-04centos-7 /
https://www.digitalocean.com/community/tutorials/understanding-systemd-units-and-unit-files