本节讲述搭建Flink集群。
1、前提约束
- 有三台服务器[虚拟机也可以],假设这三台服务器的ip、域名分别为:
192.168.100.141 hadoop1
192.168.100.142 hadoop2
192.168.100.143 hadoop3
且已经设置免密登录和关闭防火墙,且已安装jdk并配置环境变量 - 都已经安装zookeeper集群,且已经启动
https://www.jianshu.com/p/48f142f876d4 - 在hadoop1中已经安装Flink
https://www.jianshu.com/p/6d973510db49
假设storm的安装目录在/root/flink-1.2.1
假设scala的安装目录在/root/scala-2.11.8
2、操作步骤
- 修改hadoop1的flink-conf.yaml
cd /root/flink-1.2.1/conf
vim flink-conf.yaml
jobmanager.rpc.address: hadoop1
保存退出
- 修改hadoop1的slaves
cd /root/flink-1.2.1/conf
vim slaves
hadoop2
hadoop3
保存退出
- 从hadoop1中拷贝flink安装包到hadoop2和hadoop3
scp -r /root/flink-1.2.1/ root@hadoop2:/root
scp -r /root/flink-1.2.1/ root@hadoop3:/root
- 在hadoop1中启动flink集群
cd /root/flink-1.2.1/bin
./start-cluster.sh
以上就是安装Flink集群的过程。
网友评论