吹静静

欢迎QQ交流:592590682

以下操作均在主节点进行

1.环境变量

添加FLINK_HOME以及path的内容:

export FLINK_HOME=/bigdata/flink-1.6.1

export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin:${FLINK_HOME}/bin

2.修改conf/flink-conf.yaml

这几乎是最简单的配置方式了,主要注意要修改jobmanager.rpc.address为集群中jobManager的IP或hostname。检查点以及HA的参数都没有配置。

jobmanager.rpc.address: master

3.修改slaves文件

这个文件中存放的信息是taskmanager的hostname。

4.复制flink目录到集群中其他的机器

[root@master ~]# scp -r /bigdata/flink-1.6.1/ root@192.168.36.27:/bigdata/
[root@master ~]# scp -r /bigdata/flink-1.6.1/ root@192.168.36.28:/bigdata/

5.启动Flink集群

先启动zookeeper、kafka、HDfS。

启动Flink:[root@master ~]# start-cluster.sh

master:

[root@master ~]# jps
961 Kafka
22306 QuorumPeerMain
16786 ResourceManager
858 StandaloneSessionClusterEntrypoint
15996 SecondaryNameNode
1404 TaskManagerRunner
13853 NameNode
32701 DataNode
431 Jps

worker1:

[root@worker1 ~]# jps
32372 StandaloneSessionClusterEntrypoint
25285 Kafka
19046 QuorumPeerMain
16726 Jps
8137 NodeManager
5660 DataNode
351 TaskManagerRunner

worker2:

[root@worker2 ~]# jps
14592 TaskManagerRunner
7602 NodeManager
18388 QuorumPeerMain
4984 DataNode
14139 StandaloneSessionClusterEntrypoint
16060 Jps
23422 Kafka

关闭Flink:[root@master ~]# stop-cluster.sh

 

posted on 2019-03-06 15:48  吹静静  阅读(1523)  评论(0编辑  收藏  举报