美文网首页
Apache Flink——一些重要的概念

Apache Flink——一些重要的概念

作者: 小波同学 | 来源:发表于2022-06-19 19:04 被阅读0次

    一、数据流图(Dataflow Graph)

    所有的 Flink 程序都可以归纳为由三部分构成:Source、Transformation 和 Sink。

    • Source 表示“源算子”,负责读取数据源。
    • Transformation 表示“转换算子”,利用各种算子进行处理加工。
    • Sink 表示“下沉算子”,负责数据的输出。

    Flink 程序会被映射成所有算子按照逻辑顺序连接在一起的一张图,这被称为“逻辑数据流”(logical dataflow),或者叫“数据流图”(dataflow graph)。我们提交作业之后,打开 Flink 自带的 Web UI,点击作业就能看到对应的 dataflow。

    在运行时,Flink 上运行的程序会被映射成“逻辑数据流”(dataflows),它包含了这三部分。每一个 dataflow 以一个或多个 sources 开始以一个或多个 sinks 结束。dataflow 类似于任意的有向无环图(DAG)。在大部分情况下,程序中的转换运算(transformations)跟 dataflow 中的算子(operator)是 一 一 对应的关系,但有时候,一个 transformation 可能对应多个 operator。

    二、并行度(Parallelism)

    如果说 Spark基于 MapReduce 架构的思想是“数据不动代码动”,那么 Flink 就类似“代码不动数据流动”,原因就在于流式数据本身是连续到来的、我们不会同时传输所有数据,这其实是更符合数据流本身特点的处理方式。

    一个特定算子的子任务(subtask)的个数被称之为其并行度。 这样,包含并行子任务的数据流,就是并行数据流,它需要多个分区(stream partition)来分配并行任务。一般情况下,一个流程序的并行度,可以认为就是其所有算子中最大的并行度。一个程序中,不同的算子可能具有不同的并行度。

    一个并行的任务,需要占用的slot数是整个任务最大并行的数量,也就是你设置的Parallelism在整个处理流程重最大的数量。

    并行度优先级:代码层面 > 全局层面 > Web UI 层面 > 集群配置文件层面

    在不设置并行度的情况下,并行度的数量取决于CPU有多少核心

    三、算子链(Operator Chain)

    数据传输的方式:

    3.1 一对一(One-to-one,forwarding)

    这种模式下,数据流维护着分区以及元素的顺序。比如图中的 source 和 map 算子,source算子读取数据之后,可以直接发送给 map 算子做处理,它们之间不需要重新分区,也不需要调整数据的顺序。这就意味着 map 算子的子任务,看到的元素个数和顺序跟 source 算子的子任务产生的完全一样,保证着“一对一”的关系。map、filter、flatMap 等算子都是这种 one-to-one的对应关系。

    这种关系类似于 Spark 中的窄依赖。

    3.2 重分区(Redistributing)

    在这种模式下,数据流的分区会发生改变。
    每一个算子的子任务,会根据数据传输的策略,把数据发送到不同的下游目标任务。例如,keyBy()是分组操作,本质上基于键(key)的哈希值(hashCode)进行了重分区;而当并行度改变时,比如从并行度为 2 的 window 算子,要传递到并行度为 1 的 Sink 算子,这时的数据传输方式是再平衡(rebalance),会把数据均匀地向下游子任务分发出去。这些传输方式都会引起重分区(redistribute)的过程,这一过程类似于 Spark 中的 shuffle。

    总体说来,这种算子间的关系类似于 Spark 中的宽依赖。

    在 Flink 中,并行度相同的一对一(one to one)算子操作,可以直接链接在一起形成一个“大”的任务(task),这样原来的算子就成为了真正任务里的一部分,如图 所示。每个 task会被一个线程执行。这样的技术被称为“算子链”(Operator Chain)。

    Flink 为什么要有算子链这样一个设计呢?
    这是因为将算子链接成 task 是非常有效的优化:可以减少线程之间的切换和基于缓存区的数据交换,在减少时延的同时提升吞吐量。

    Flink 默认会按照算子链的原则进行链接合并,如果我们想要禁止合并或者自行定义,也可以在代码中对算子做一些特定的设置:

    // 禁用算子链
    .map(word -> Tuple2.of(word, 1L)).disableChaining();
    
    // 从当前算子开始新链
    .map(word -> Tuple2.of(word, 1L)).startNewChain()
    

    四、作业图(JobGraph)与执行图(ExecutionGraph)

    逻辑流图也就是数据流图

    Flink 中任务调度执行的图,按照生成顺序可以分成四层:
    逻辑流图(StreamGraph)→ 作业图(JobGraph)→ 执行图(ExecutionGraph)→ 物理图(Physical Graph)

    4.1 逻辑流图(StreamGraph)

    这是根据用户通过 DataStream API 编写的代码生成的最初的 DAG 图,用来表示程序的拓扑结构。这一步一般在客户端完成。

    我们可以看到,逻辑流图中的节点,完全对应着代码中的四步算子操作:
    源算子 Source(socketTextStream())→扁平映射算子 Flat Map(flatMap()) →分组聚合算子Keyed Aggregation(keyBy/sum()) →输出算子 Sink(print())。

    4.2 作业图(JobGraph)

    StreamGraph 经过优化后生成的就是作业图(JobGraph),这是提交给 JobManager 的数据结构,确定了当前作业中所有任务的划分。主要的优化为: 将多个符合条件的节点链接在一起合并成一个任务节点,形成算子链,这样可以减少数据交换的消耗。JobGraph 一般也是在客户端生成的,在作业提交时传递给 JobMaster。

    分组聚合算子(Keyed Aggregation)和输出算子 Sink(print)并行度都为 2,而且是一对一的关系,满足算子链的要求,所以会合并在一起,成为一个任务节点。

    4.3 执行图(ExecutionGraph)

    JobMaster 收到 JobGraph 后,会根据它来生成执行图(ExecutionGraph)。ExecutionGraph是 JobGraph 的并行化版本,是调度层最核心的数据结构。与 JobGraph 最大的区别就是按照并行度对并行子任务进行了拆分,并明确了任务间数据传输的方式。

    4.4 物理图(Physical Graph)

    JobMaster 生成执行图后, 会将它分发给 TaskManager;各个 TaskManager 会根据执行图部署任务,最终的物理执行过程也会形成一张“图”,一般就叫作物理图(Physical Graph)。这只是具体执行层面的图,并不是一个具体的数据结构。物理图主要就是在执行图的基础上,进一步确定数据存放的位置和收发的具体方式。有了物理图,TaskManager 就可以对传递来的数据进行处理计算了。

    所以我们可以看到,程序里定义了四个算子操作:源(Source)->转换(flatMap)->分组聚合(keyBy/sum)->输出(print);合并算子链进行优化之后,就只有三个任务节点了;再考虑并行度后,一共有 5 个并行子任务,最终需要 5 个线程来执行。

    参考:
    https://blog.csdn.net/weixin_45417821/article/details/124101562

    相关文章

      网友评论

          本文标题:Apache Flink——一些重要的概念

          本文链接:https://www.haomeiwen.com/subject/gbgrvrtx.html