hadoop与spark执行定时任务,linux执行定时任务
1、mapreduce任务可以用linux上的crontab来执行定时任务
用crontab执行定时任务时注意:手动运行脚本会执行,可是定时就不行。原因:应该重新指定环境变量
#!/bin/bash #if [ -f ~/.bash_profile ]; #then # . ~/.bash_profile #fi . /etc/profile spark-submit --class app.AllInfo --master yarn-cluster --jars /home/lw/myapp/mylibs/spark_hbase_fat.jar /home/lw/myapp/weatherDisplay.jar
2、spark任务还可以用sparkStreamingContext来设置,spark任务执行时间间隔,来执行定时任务。
两者区别:1由linux维护,2由spark维护
分类:
hadoop,spark,mllib大数据开发
, 服务器运维
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?