美文网首页
Flink(1.13) 部署 Standalone模式

Flink(1.13) 部署 Standalone模式

作者: 万事万物 | 来源:发表于2021-08-17 10:39 被阅读0次

    重新拷贝一份新的文件

    保留原始文件

     cp -r flink flink-standalone
    
    • 编辑 flink-conf.yaml
     vim flink-conf.yaml
    

    配置信息如下

    // 配置masterIP(可以指定当前服务器IP)
    jobmanager.rpc.address: hadoop102
    // 配置 master 与 worker内部通信端口
    jobmanager.rpc.port: 6123

    • 编辑 workers
     vim workers
    

    配置信息如下:master只有一个,workers可以有多个

    hadoop102
    hadoop103
    hadoop104
    
    • 分发
      分发到hadoop102hadoop103hadoop104 保证该服务器上有flink-standalone文件。

    启动集群

    • 启动
     flink-standalone]$ bin/start-cluster.sh
    
    • 启动日志
      检查其他节点是否启动成功
    Starting cluster.
    Starting standalonesession daemon on host hadoop102.
    Starting taskexecutor daemon on host hadoop102.
    Starting taskexecutor daemon on host hadoop103.
    Starting taskexecutor daemon on host hadoop104.
    
    • web端查看


      节点情况

    Standalone 与 yarn 的区别

    区别就在于是谁在管理资源,Standalone 是由 Flink自己管理资源,yarn 是交由 yarn 管理资源。

    高可用

    任何时候都有一个 主 JobManager 和多个备用 JobManagers,以便在主节点失败时有备用 JobManagers 来接管集群。这保证了没有单点故障,一旦备 JobManager 接管集群,作业就可以正常运行。主备 JobManager 实例之间没有明显的区别。每个 JobManager 都可以充当主备节点。

    • 编辑 flink-conf.yaml
    vim flink-conf.yaml
    

    配置信息如下

    # 高可用依赖于zookeeper,复制master选举
    high-availability: zookeeper
    # 绑定zookeeper集群
    high-availability.zookeeper.quorum: hadoop102:2181,hadoop103:2181,hadoop104:2181
    # 配置master信息存放地址
    high-availability.storageDir: hdfs://hadoop102:9820/flink-standalone/ha/
    # zookeeper 存储地址
    high-availability.zookeeper.path.root: /flink-standalone
    # 集群id
    high-availability.cluster-id: /cluster_atguigu

    high-availability.storageDir: hdfs://hadoop102:9820/flink/ha/ 端口参考core-site.xml中的配置

            <!-- 指定NameNode的地址 -->
            <property>
                    <name>fs.defaultFS</name>
                    <value>hdfs://hadoop102:9820</value>
            </property>
    
    • 保存退出
    • 关闭原来的集群
    [admin@hadoop102 flink-standalone]$ bin/stop-cluster.sh
    Stopping taskexecutor daemon (pid: 10745) on host hadoop102.
    Stopping taskexecutor daemon (pid: 6284) on host hadoop103.
    Stopping taskexecutor daemon (pid: 6243) on host hadoop104.
    Stopping standalonesession daemon (pid: 10376) on host hadoop102.
    
    • 修改之后分发

    • 启动 zookeeper

    • 启动 Hadoop

    • 配置hadoop
      1.11之前必须向 flink/bin 中丢入hadoop依赖,
      1.11之后就不用了,只需要修改环境变量文件

    添加

    # Flink需要
    export HADOOP_CLASSPATH=`hadoop classpath`
    

    source 使其立即生效

    • 重启启动集群
    [admin@hadoop102 flink-standalone]$ bin/start-cluster.sh
    Starting HA cluster with 1 masters.
    Starting standalonesession daemon on host hadoop102.
    Starting taskexecutor daemon on host hadoop102.
    Starting taskexecutor daemon on host hadoop103.
    Starting taskexecutor daemon on host hadoop104.
    

    注意:虽然现在是高可用,但是只有一个master

    Starting HA cluster with 1 masters.
    
    • 编辑 conf/masters
      总共就三台服务器,就都配置上,让他们轮流当老大
    hadoop102:8081
    hadoop103:8081
    hadoop104:8081
    

    重启集群,这样就有三台了。

    Starting HA cluster with 3 masters.
    
    • 通过 zookeeper 查看当前集群的master是那台节点
    [zk: localhost:2181(CONNECTED) 5] get /flink-standalone/cluster_atguigu/leader/dispatcher_lock
    tcp://flink@hadoop102:39417/user/rpc/dispatcher
    
    • 杀死 master
    16237 StandaloneSessionClusterEntrypoint
     kill -9 16237
    

    相关文章

      网友评论

          本文标题:Flink(1.13) 部署 Standalone模式

          本文链接:https://www.haomeiwen.com/subject/tsyivltx.html