重启 hdfs and yarn datanode

1- start-all.sh and stop-all.sh:

Used to start and stop hadoop daemons all at once. Issuing it on the master machine will start/stop the daemons on all the nodes of a cluster. 

 

 2- start.dfs.sh, stop.dfs.sh and start-yarn.sh, stop-yarn.sh:

Same as above but start/stop HDFS and YARN daemons separately from the master machine on all the nodes. It is advisable to use these commands now over start-all.sh & stop-all.sh

 

3- hadoop-daemon.sh start namenode/datanode and hadoop-daemon.sh stop namenode/datanode:

To start individual daemons on an individual machine manually. You need to go to a particular node and issue these commands.

 

 

重启 yarn datanode:

"hadoop-daemon.sh start datanode" and "yarn-daemon.sh start nodemanager" .

 

posted @   Pekkle  阅读(1335)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
点击右上角即可分享
微信分享提示