启动Hadoop时需要进行的操作
首先切换到hadoop用户
su - hadoop
启动hdfs集群
start-dfs.sh
启动yarn集群
start-yarn.sh
启动hive
首先切换到hive文件夹
cd /export/server/hive
然后再运行下述命令
#先启动metastore服务 然后启动hiveserver2服务 nohup bin/hive --service metastore >> logs/metastore.log 2>&1 & nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
启动Spark
切换到spark目录下
cd /export/server/spark
运行下列命令
sbin/start-all.sh
启动完成后输入jps命令检验一下是否启动成功
Zookeeper启动
在node1、node2、node3上分别执行,启动Zookeeper
/export/server/zookeeper/bin/zkServer.sh start
本文作者:万事胜意k
本文链接:https://www.cnblogs.com/ysk0904/p/17556462.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步