airflow分布式部署(五)开机自启动

airflow是一个常驻任务,我们希望它在任务失败后可以自动重启,systemd可以帮助我们实现这个功能,首先需要配置如下文件

/etc/sysconfig/airflow

AIRFLOW_CONFIG=/root/airflow/airflow.cfg
AIRFLOW_HOME=/root/airflow
HADOOP_USER_NAME=hdfs

/usr/lib/systemd/system/airflow-webserver.service

复制代码
[Unit]
Description=Airflow webserver daemon

[Service]
EnvironmentFile=/etc/sysconfig/airflow
User=root
Group=root
Type=simple
ExecStart=/root/miniconda3/envs/py36/bin/airflow webserver
Restart=on-failure
RestartSec=5s
PrivateTmp=true

[Install]
WantedBy=multi-user.target
复制代码

/usr/lib/systemd/system/airflow-flower.service

复制代码
[Unit]
Description=Airflow flower daemon
[Service]
EnvironmentFile=/etc/sysconfig/airflow
User=root
Group=root
Type=simple
ExecStart=/root/miniconda3/envs/py36/bin/airflow flower
Restart=on-failure
RestartSec=5s
PrivateTmp=true
复制代码

/usr/lib/systemd/system/airflow-scheduler.service

复制代码
[Unit]
Description=Airflow scheduler daemon
After=network.target postgresql.service mysql.service redis.service rabbitmq-server.service
Wants=redis.service

[Service]
EnvironmentFile=/etc/sysconfig/airflow
User=root
Group=root
Type=simple
ExecStart=/root/miniconda3/envs/py36/bin/airflow scheduler
Restart=always
RestartSec=5s

[Install]
WantedBy=multi-user.target
复制代码

/usr/lib/systemd/system/airflow-worker.service

复制代码
[Unit]
Description=Airflow celery worker daemon
After=network.target postgresql.service mysql.service redis.service rabbitmq-server.service
Wants=mysql.service redis.service

[Service]
EnvironmentFile=/etc/sysconfig/airflow
User=root
Group=root
Type=simple
ExecStart=/root/miniconda3/envs/py36/bin/airflow worker
Restart=on-failure
RestartSec=10s

[Install]
WantedBy=multi-user.target
复制代码

配置完,之后执行以下命令

复制代码
#重载所有修改过的配置文件
sudo systemctl daemon-reload
#查看启动耗时,关键是可以查看启动失败的原因
sudo systemd-analyze verify airflow-webserver.service
#查看启动失败任务的启动日志
sudo journalctl -u airflow-webserver.service
#查看服务状态
systemctl status airflow-scheduler.service
#判断是否自动重启
sudo systemctl is-enabled airflow-worker.service
sudo systemctl enable airflow-worker.service
#重启任务
systemctl stop airflow-scheduler.service
systemctl start airflow-scheduler.service
复制代码

 报错记录

FileNotFoundError: [Errno 2] No such file or directory: 'gunicorn'

这是因为没有把python3的path加入到PATH中,解决思路找到python3的路径加入到PATH即可

备注:

又有报错FileNotFoundError: [Errno 2] No such file or directory: 'airflow': 'airflow'

反反复复始终未能解决,最终webserver/scheduler以systemctl方式启动,worker和flower以airflow worker -D的方式启动



posted @   Mars.wang  阅读(1431)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
· AI Agent开发,如何调用三方的API Function,是通过提示词来发起调用的吗
点击右上角即可分享
微信分享提示