安装Flink之前先安装hadoop集群。
Flink下载:
https://flink.apache.org/downloads.html https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.11.1/flink-1.11.1-bin-scala_2.11.tgz
解压安装:
tar -xf flink-1.11.1-bin-scala_2.11.tgz -C /usr/local/ cd /usr/local/ ln -sv flink-1.11.1/ flink
环境变量:
cat > /etc/profile.d/flink.sh <<EOF export FLINK_HOME=/usr/local/flink export PATH=\$PATH:\$FLINK_HOME/bin EOF . /etc/profile.d/flink.sh
普通用户的环境变量:
cat >> ~/.bashrc <<EOF export FLINK_HOME=/usr/local/flink export PATH=\$PATH:\$FLINK_HOME/bin EOF . ~/.bashrc
修改配置:
cd /usr/local/flink/conf vim flink-conf.yaml jobmanager.rpc.address: hadoop-master
配置master节点:
cat > masters <<EOF hadoop-master EOF
配置worker节点:master节点也可以作为worker节点
cat > workers <<EOF hadoop-master hadoop-node1 hadoop-node2 EOF
复制配置文件到worker节点:
scp ./* root@hadoop-node1:/usr/local/flink/conf scp ./* root@hadoop-node2:/usr/local/flink/conf
修改属组属主:
chown -R hadoop.hadoop /usr/local/flink/ /usr/local/flink
启动集群:
start-cluster.sh
查看运行的进程:master节点。
~]$ jps 26801 TaskManagerRunner 26455 StandaloneSessionClusterEntrypoint ...
worker节点:
~]$ jps
TaskManagerRunner
...
关闭集群:
stop-cluster.sh
拓展集群:向正在运行的集群中添加JobManager、TaskManager
bin/jobmanager.sh ((start|start-foreground) [host] [webui-port])|stop|stop-all bin/taskmanager.sh start|start-foreground|stop|stop-all
web页面:
http://192.168.0.54:8081/#/overview
本文来自博客园,作者:大码王,转载请注明原文链接:https://www.cnblogs.com/huanghanyu/
分类:
环境搭建与运维
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具