hadoop与spark执行定时任务,linux执行定时任务

1、mapreduce任务可以用linux上的crontab来执行定时任务

  用crontab执行定时任务时注意:手动运行脚本会执行,可是定时就不行。原因:应该重新指定环境变量

 

复制代码
#!/bin/bash


#if [ -f ~/.bash_profile ];
#then
#  . ~/.bash_profile
#fi
. /etc/profile
spark-submit --class app.AllInfo --master yarn-cluster  --jars /home/lw/myapp/mylibs/spark_hbase_fat.jar /home/lw/myapp/weatherDisplay.jar
复制代码

 

2、spark任务还可以用sparkStreamingContext来设置,spark任务执行时间间隔,来执行定时任务。

 

两者区别:1由linux维护,2由spark维护

posted @   鎏鑫岁月  阅读(2545)  评论(0编辑  收藏  举报
编辑推荐:
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?
点击右上角即可分享
微信分享提示