美文网首页
Apache Flink——处理函数

Apache Flink——处理函数

作者: 小波同学 | 来源:发表于2022-07-17 23:20 被阅读0次

    前言

    在更底层,可以不定义任何具体的算子(比如 map,filter,或者 window),而只是提炼出一个统一的“处理”(process)操作——它是所有转换算子的一个概括性的表达,可以自定义处理逻辑,所以这一层接口就被叫作“处理函数”(process function)。

    在处理函数中,我们直面的就是数据流中最基本的元素:数据事件(event)、状态(state)以及时间(time)。这就相当于对流有了完全的控制权。处理函数比较抽象,没有具体的操作,所以对于一些常见的简单应用(比如求和、开窗口)会显得有些麻烦;不过正是因为它不限定具体做什么,所以理论上我们可以做任何事情,实现所有需求。所以可以说,处理函数是我们进行 Flink 编程的“大招”,轻易不用,一旦放出来必然会扫平一切。

    一、基本处理函数(ProcessFunction)

    处理函数主要是定义数据流的转换操作,所以也可以把它归到转换算子中。我们知道在
    Flink 中几乎所有转换算子都提供了对应的函数类接口,处理函数也不例外;它所对应的函数类,就叫作 ProcessFunction。

    1.1 处理函数的功能和使用

    转换算子一般只是针对某种具体操作来定义的,能够拿到信息比较有限。比如map算子,获取转换之后形式;而像窗口聚合这样的复杂操作,AggregateFunction中除数据外,还可以获取到当前的状态(以累加器Accumulator形式出现)。

    另外富函数类,可以获取运行时上下文的方法getRuntimeContext(),还可以拿到状态、并行度、任务名称之类的运行时信息。但这些算子无法获得访问事件的时间戳、当前的水位线等信息。

    处理函数提供了一个定时服务(TimeService),我们可以通过它访问流中的事件(event)、时间戳(timestamp)、水位线(watermark),甚至可以注册“定时事件”。而且处理函数继承了AbstractRichFunction抽象类,故拥有富函数类的所有特性,同样可以访问状态(state)和其他运行时信息。此外,处理函数还可以直接将数据输出到侧输出流(side output)中。故处理函数是最为灵活的处理方法,还可以实现各种自定义的业务逻辑,同时也是整个DataStream API的底层基础。

    处理函数的使用与基本的转换操作类似,只需要直接基于 DataStream 调用.process()方法就可以了。方法需要传入一个 ProcessFunction 作为参数,用来定义处理逻辑:

    stream.process(new MyProcessFunction)
    

    这里 ProcessFunction 不是接口,而是一个抽象类,继承了 AbstractRichFunction;
    MyProcessFunction 是它的一个具体实现。所以所有的处理函数,都是富函数(RichFunction),富函数可以调用的东西这里同样都可以调用。

    下面是一个具体的应用示例:

    public class ProcessFunctionTest {
    
        public static void main(String[] args) throws Exception {
            //创建执行环境
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            env.setParallelism(1);
            //设置生成水位线的时间间隔
            env.getConfig().setAutoWatermarkInterval(100);
    
            //乱序流的Watermark生成
            SingleOutputStreamOperator<Event> stream = env.addSource(new ClickSource())
                    // 插入水位线的逻辑 设置 watermark 延迟时间,2 秒
                    .assignTimestampsAndWatermarks(
                            // 针对乱序流插入水位线,延迟时间设置为 2s
                            WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(2))
                                    // 抽取时间戳的逻辑
                                    .withTimestampAssigner((SerializableTimestampAssigner<Event>) (element, recordTimestamp) -> element.getTimestamp())
                    );
    
            stream.process(new ProcessFunction<Event, String>() {
                @Override
                public void processElement(Event event, Context context, Collector<String> out) throws Exception {
                    if("Mary".equals(event.getUser())){
                        out.collect(event.getUser() + "clicks: " + event.getUrl());
                    }else if("Bobo".equals(event.getUser())){
                        out.collect(event.getUser());
                        out.collect(event.getUser());
                    }
                    out.collect(event.toString());
                    Long timestamp = context.timestamp();
                    TimerService timerService = context.timerService();
                    System.out.println("timestamp: " + timestamp);
                    System.out.println("Watermark: " + timerService.currentWatermark());
                }
            }).print();
    
            env.execute();
        }
    }
    

    这里在 ProcessFunction 中重写了.processElement()方法,自定义了一种处理逻辑:当数据的 user 为“Mary”时,将其输出一次;而如果为“Bob”时,将 user 输出两次。这里的
    输 出 , 是 通 过 调 用 out.collect() 来实现的。另外我们还可以调用
    ctx.timerService().currentWatermark() 来 获 取 当 前 的 水 位 线 打 印 输 出 。 所 以 可 以 看 到 ,ProcessFunction 函数有点像 FlatMapFunction 的升级版。可以实现 Map、Filter、FlatMap 的所有功能。很明显,处理函数非常强大,能够做很多之前做不到的事情。

    1.1.1 ProcessFunction 解析

    在源码中可以看到,抽象类 ProcessFunction 继承了 AbstractRichFunction,有两个泛型类型参数:I 表示 Input ,也就是输入的数据类型;O 表示 Output ,也就是处理完成之后输出的数据类型。内部单独定义了两个方法:一个是必须要实现的抽象方法 .processElement();另一个是非抽象方法 .onTimer()。

    @PublicEvolving
    public abstract class ProcessFunction<I, O> extends AbstractRichFunction {
    
        private static final long serialVersionUID = 1L;
        
        public abstract void processElement(I value, Context ctx, Collector<O> out) throws Exception;
    
        public void onTimer(long timestamp, OnTimerContext ctx, Collector<O> out) throws Exception {}
        
        ......
        
    }
    
    抽象方法.processElement()

    用于“处理元素”,定义了处理的核心逻辑。这个方法对于流中的每个元素都会调用一次,
    参数包括三个:输入数据值 value,上下文 ctx,以及“收集器”(Collector)out。方法没有返回值,处理之后的输出数据是通过收集器 out 来定义的。

    • value:当前流中的输入元素,也就是正在处理的数据,类型与流中数据类
      型一致。
    • ctx:类型是 ProcessFunction 中定义的内部抽象类 Context,表示当前运行的
      上下文,可以获取到当前的时间戳,并提供了用于查询时间和注册定时器的“定时服
      务”(TimerService),以及可以将数据发送到“侧输出流”(side output)的方法.output()。
      Context 抽象类定义如下:
    public abstract class Context {
    
        public abstract Long timestamp();
    
        public abstract TimerService timerService();
    
        public abstract <X> void output(OutputTag<X> outputTag, X value);
    }
    
    • out:“收集器”(类型为 Collector),用于返回输出数据。使用方式与 flatMap
      算子中的收集器完全一样,直接调用 out.collect()方法就可以向下游发出一个数据。
      这个方法可以多次调用,也可以不调用。

    通过几个参数的分析不难发现,ProcessFunction 可以轻松实现 flatMap 这样的基本转换功能(当然 map、filter 更不在话下);而通过富函数提供的获取上下文方法.getRuntimeContext(),也可以自定义状态(state)进行处理,这也就能实现聚合操作的功能了。

    非抽象方法.onTimer()

    用于定义定时触发的操作,这是一个非常强大、也非常有趣的功能。

    这个方法只有在注册好的定时器触发的时候才会调用,而定时器是通过“定时服务”TimerService 来注册的。

    打个比方,注册定时器(timer)就是设了一个闹钟,到了设定时间就会响;而.onTimer()中定义的,就是闹钟响的时候要做的事。所以它本质上是一个基于时间的“回调”(callback)方法,通过时间的进展来触发;在事件时间语义下就是由水位线(watermark)来触发了。

    与.processElement()类似,定时方法.onTimer()也有三个参数:时间戳(timestamp),上下文(ctx),以及收集器(out)。这里的 timestamp 是指设定好的触发时间,事件时间语义下当然就是水位线了。另外这里同样有上下文和收集器,所以也可以调用定时服务(TimerService),以及任意输出处理之后的数据。

    既然有.onTimer()方法做定时触发,我们用 ProcessFunction 也可以自定义数据按照时间分组、定时触发计算输出结果;这其实就实现了窗口(window)的功能。所以说 ProcessFunction是真正意义上的终极奥义,用它可以实现一切功能。

    我们也可以看到,处理函数都是基于事件触发的。水位线就如同插入流中的一条数据一样;只不过处理真正的数据事件调用的是.processElement()方法,而处理水位线事件调用的是.onTimer()。

    这里需要注意的是,上面的.onTimer()方法只是定时器触发时的操作,而定时器(timer)
    真正的设置需要用到上下文 ctx 中的定时服务。在 Flink 中,只有“按键分区流”KeyedStream才支持设置定时器的操作,所以之前的代码中我们并没有使用定时器。所以基于不同类型的流,可以使用不同的处理函数,它们之间还是有一些微小的区别的。

    1.1.2 处理函数的分类

    Flink 中的处理函数其实是一个大家族,ProcessFunction 只是其中一员。

    我们知道,DataStream 在调用一些转换方法之后,有可能生成新的流类型;例如调
    用.keyBy()之后得到 KeyedStream,进而再调用.window()之后得到 WindowedStream。对于不同类型的流,其实都可以直接调用.process()方法进行自定义处理,这时传入的参数就都叫作处理函数。当然,它们尽管本质相同,都是可以访问状态和时间信息的底层 API,可彼此之间也会有所差异。

    Flink 提供了 8 个不同的处理函数:

    • 1 ProcessFunction
      最基本的处理函数,基于 DataStream 直接调用.process()时作为参数传入。

    • 2 KeyedProcessFunction
      对流按键分区后的处理函数,基于 KeyedStream 调用.process()时作为参数传入。要想使用定时器,比如基于 KeyedStream。

    • 3 ProcessWindowFunction
      开窗之后的处理函数,也是全窗口函数的代表。基于 WindowedStream 调用.process()时作为参数传入。

    • 4 ProcessAllWindowFunction
      同样是开窗之后的处理函数,基于 AllWindowedStream 调用.process()时作为参数传入。

    • 5 CoProcessFunction
      合并(connect)两条流之后的处理函数,基于 ConnectedStreams 调用.process()时作为参数传入。

    • 6 ProcessJoinFunction
      间隔连接(interval join)两条流之后的处理函数,基于 IntervalJoined 调用.process()时作为参数传入。

    • 7 BroadcastProcessFunction
      广播连接流处理函数,基于 BroadcastConnectedStream 调用.process()时作为参数传入。这里的“广播连接流”BroadcastConnectedStream,是一个未 keyBy 的普通 DataStream 与一个广播流(BroadcastStream)做连接(conncet)之后的产物。

    • 8 KeyedBroadcastProcessFunction
      按键分区的广播连接流处理函数,同样是基于 BroadcastConnectedStream 调用.process()时作为参数传入。与 BroadcastProcessFunction 不同的是,这时的广播连接流,是一个 KeyedStream与广播流(BroadcastStream)做连接之后的产物。

    接下来,我们就对 KeyedProcessFunction 和 ProcessWindowFunction 的具体用法展开详细说明。

    1.2 按键分区处理函数(KeyedProcessFunction)

    在 Flink 程序中,为了实现数据的聚合统计,或者开窗计算之类的功能,我们一般都要先
    用 keyBy 算子对数据流进行“按键分区”,得到一个 KeyedStream。也就是指定一个键(key),按照它的哈希值(hash code)将数据分成不同的“组”,然后分配到不同的并行子任务上执行计算;这相当于做了一个逻辑分流的操作,从而可以充分利用并行计算的优势实时处理海量数据。

    另外只有在 KeyedStream 中才支持使用 TimerService 设置定时器的操作。所以一般情况下,都是先做了 keyBy 分区之后,再去定义处理操作;代码中更加常见的处理函数是 KeyedProcessFunction,最基本的 ProcessFunction 反而出镜率没那么高。

    1.2.1 定时器(Timer)和定时服务(TimerService)

    KeyedProcessFunction 的一个特色,就是可以灵活地使用定时器。

    定时器(timers)是处理函数中进行时间相关操作的主要机制。在.onTimer()方法中可以实现定时处理的逻辑,而它能触发的前提,就是之前曾经注册过定时器、并且现在已经到了触发时间。注册定时器的功能,是通过上下文中提供的“定时服务”(TimerService)来实现的。

    定时服务与当前运行的环境有关。前面已经介绍过,ProcessFunction 的上下文(Context)中提供了.timerService()方法,可以直接返回一个 TimerService 对象:

    public abstract TimerService timerService();
    

    TimerService 是 Flink 关于时间和定时器的基础服务接口,包含以下六个方法:

    // 获取当前的处理时间
    long currentProcessingTime();
    
    // 获取当前的水位线(事件时间)
    long currentWatermark();
    
    // 注册处理时间定时器,当处理时间超过 time 时触发
    void registerProcessingTimeTimer(long time);
    
    // 注册事件时间定时器,当水位线超过 time 时触发
    void registerEventTimeTimer(long time);
    
    // 删除触发时间为 time 的处理时间定时器
    void deleteProcessingTimeTimer(long time);
    
    // 删除触发时间为 time 的处理时间定时器
    void deleteEventTimeTimer(long time);
    

    六个方法可以分成两大类:基于处理时间和基于事件时间。
    而对应的操作主要有三个:获取当前时间,注册定时器,以及删除定时器。

    需要注意,尽管处理函数中都可以直接访问TimerService,不过只有基于 KeyedStream 的处理函数,才能去调用注册和删除定时器的方法;未作按键分区的 DataStream 不支持定时器操作,只能获取当前时间。

    对于处理时间和事件时间这两种类型的定时器,TimerService 内部会用一个优先队列将它们的时间戳(timestamp)保存起来,排队等待执行。可以认为,定时器其实是 KeyedStream上处理算子的一个状态,它以时间戳作为区分。所以 TimerService 会以键(key)和时间戳为标准,对定时器进行去重;也就是说对于每个 key 和时间戳,最多只有一个定时器,如果注册了多次,onTimer()方法也将只被调用一次。这样一来,我们在代码中就方便了很多,可以肆无忌惮地对一个 key 注册定时器,而不用担心重复定义——因为一个时间戳上的定时器只会触发一次。

    基于 KeyedStream 注册定时器时,会传入一个定时器触发的时间戳,这个时间戳的定时器对于每个 key 都是有效的。这样,我们的代码并不需要做额外的处理,底层就可以直接对不同key 进行独立的处理操作了。

    利用这个特性,有时我们可以故意降低时间戳的精度,来减少定时器的数量,从而提高处理性能。比如我们可以在设置定时器时只保留整秒数,那么定时器的触发频率就是最多 1 秒一次。

    long coalescedTime = time / 1000 * 1000;
    ctx.timerService().registerProcessingTimeTimer(coalescedTime);
    

    这里注意定时器的时间戳必须是毫秒数,所以我们得到整秒之后还要乘以 1000。定时器
    默认的区分精度是毫秒。

    另外 Flink 对.onTimer()和.processElement()方法是同步调用的(synchronous),所以也不会出现状态的并发修改。

    Flink 的定时器同样具有容错性,它和状态一起都会被保存到一致性检查点(checkpoint)中。当发生故障时,Flink 会重启并读取检查点中的状态,恢复定时器。如果是处理时间的定时器,有可能会出现已经“过期”的情况,这时它们会在重启时被立刻触发。

    1.2.2 KeyedProcessFunction 的使用

    KeyedProcessFunction 是 ProcessFunction 的一个扩展。我们只要基于 keyBy 之后的 KeyedStream,直接调用.process()方法,这时需要传入的参数就是 KeyedProcessFunction 的实现类。

    stream.keyBy( t -> t.f0 )
        .process(new MyKeyedProcessFunction())
    

    类似地,KeyedProcessFunction 也是继承自 AbstractRichFunction 的一个抽象类,源码中定义如下:

    public abstract class KeyedProcessFunction<K, I, O> extends AbstractRichFunction {
    
        ...
        
        public abstract void processElement(I value, Context ctx, Collector<O> out) throws Exception;
        public void onTimer(long timestamp, OnTimerContext ctx, Collector<O> out) throws Exception {}
        public abstract class Context {...}
        
        ...
    
    }
    

    可以看到与 ProcessFunction 的定义几乎完全一样,区别只是在于类型参数多了一个 K,这是当前按键分区的 key 的类型。同样地,我们必须实现一个.processElement()抽象方法,用来处理流中的每一个数据;另外还有一个非抽象方法.onTimer(),用来定义定时器触发时的回调操作。由于定时器只能在 KeyedStream 上使用,所以到了 KeyedProcessFunction 这里,我们才真正对时间有了精细的控制,定时方法.onTimer()才真正派上了用场。

    下面是一个使用处理时间定时器的具体示例:

    public class ProcessingTimeTimerTest {
    
        public static void main(String[] args) throws Exception {
            //创建执行环境
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            env.setParallelism(1);
            //设置生成水位线的时间间隔
            env.getConfig().setAutoWatermarkInterval(100);
    
            //乱序流的Watermark生成
            SingleOutputStreamOperator<Event> stream = env.addSource(new ClickSource())
                    // 插入水位线的逻辑 设置 watermark 延迟时间,2 秒
                    .assignTimestampsAndWatermarks(
                            // 针对乱序流插入水位线,延迟时间设置为 2s
                            WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(2))
                                    // 抽取时间戳的逻辑
                                    .withTimestampAssigner((SerializableTimestampAssigner<Event>) (element, recordTimestamp) -> element.getTimestamp())
                    );
    
            //处理时间定时器
            stream.keyBy(Event::getUser)
                .process(new KeyedProcessFunction<String, Event, String>() {
                    @Override
                    public void processElement(Event event, Context context, Collector<String> out) throws Exception {
                        long processingTime = context.timerService().currentProcessingTime();
                        out.collect(context.getCurrentKey() + "数据到达时间: " + new Timestamp(processingTime));
    
                        //注册一个10秒后的定时器
                        context.timerService().registerProcessingTimeTimer(processingTime + 10000);
    
                    }
    
                    @Override
                    public void onTimer(long timestamp, OnTimerContext ctx, Collector<String> out) throws Exception {
                        out.collect(ctx.getCurrentKey() + "定时器触发时间: " + new Timestamp(timestamp));
                    }
                }).print();
    
            env.execute();
        }
    }
    

    在上面的代码中,由于定时器只能在 KeyedStream 上使用,所以先要进行 keyBy;这里
    的.keyBy(data -> true)是将所有数据的 key 都指定为了 true,其实就是所有数据拥有相同的 key,会分配到同一个分区。

    之后我们自定义了一个 KeyedProcessFunction,其中.processElement()方法是每来一个数据都会调用一次,主要是定义了一个 10 秒之后的定时器;而.onTimer()方法则会在定时器触发时调用。所以我们会看到,程序运行后先在控制台输出“数据到达”的信息,等待 10 秒之后,又会输出“定时器触发”的信息,打印出的时间间隔正是 10 秒。

    当然,上面的例子是处理时间的定时器,所以我们是真的需要等待 10 秒才会看到结果。
    事件时间语义下,又会有什么不同呢?我们可以对上面的代码略作修改,做一个测试:

    import com.atguigu.chapter05.Event;
    import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
    import org.apache.flink.api.common.eventtime.WatermarkStrategy;
    import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.api.functions.KeyedProcessFunction;
    import org.apache.flink.streaming.api.functions.source.SourceFunction;
    import org.apache.flink.util.Collector;
    
    public class EventTimeTimerTest {
        public static void main(String[] args) throws Exception {
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            env.setParallelism(1);
    
            SingleOutputStreamOperator<Event> stream = env.addSource(new CustomSource())
                    .assignTimestampsAndWatermarks(WatermarkStrategy.<Event>forMonotonousTimestamps()
                            .withTimestampAssigner(new SerializableTimestampAssigner<Event>() {
                                @Override
                                public long extractTimestamp(Event element, long recordTimestamp) {
                                    return element.timestamp;
                                }
                            }));
    
            // 基于KeyedStream定义事件时间定时器
            stream.keyBy(data -> true)
                    .process(new KeyedProcessFunction<Boolean, Event, String>() {
                        @Override
                        public void processElement(Event value, Context ctx, Collector<String> out) throws Exception {
                            out.collect("数据到达,时间戳为:" + ctx.timestamp());
                            out.collect("数据到达,水位线为:" + ctx.timerService().currentWatermark() + "\n -------分割线-------");
                            // 注册一个10秒后的定时器
                            ctx.timerService().registerEventTimeTimer(ctx.timestamp() + 10 * 1000L);
                        }
    
                        @Override
                        public void onTimer(long timestamp, OnTimerContext ctx, Collector<String> out) throws Exception {
                            out.collect("定时器触发,触发时间:" + timestamp);
                        }
                    })
                    .print();
    
            env.execute();
        }
    
        // 自定义测试数据源
        public static class CustomSource implements SourceFunction<Event> {
            @Override
            public void run(SourceContext<Event> ctx) throws Exception {
                // 直接发出测试数据
                ctx.collect(new Event("Mary", "./home", 1000L));
                // 为了更加明显,中间停顿5秒钟
                Thread.sleep(5000L);
    
                // 发出10秒后的数据
                ctx.collect(new Event("Mary", "./home", 11000L));
                Thread.sleep(5000L);
    
                // 发出10秒+1ms后的数据
                ctx.collect(new Event("Alice", "./cart", 11001L));
                Thread.sleep(5000L);
            }
    
            @Override
            public void cancel() { }
        }
    }
    

    由于是事件时间语义,所以我们必须从数据中提取出数据产生的时间戳。这里为了更清楚地看到程序行为,我们自定义了一个数据源,发出三条测试数据,时间戳分别为 1000、11000和 11001,并且发出数据后都会停顿 5 秒。
    在代码中,我们依然将所有数据分到同一分区,然后在自定义的 KeyedProcessFunction 中使用定时器。同样地,每来一条数据,我们就将当前的数据时间戳和水位线信息输出,并注册一个 10 秒后(以当前数据时间戳为基准)的事件时间定时器。执行程序结果如下:

    数据到达,时间戳为:1000
    数据到达,水位线为:-9223372036854775808
    -------分割线-------
    数据到达,时间戳为:11000
    数据到达,水位线为:999
    -------分割线-------
    数据到达,时间戳为:11001
    数据到达,水位线为:10999
    -------分割线-------
    定时器触发,触发时间:11000
    定时器触发,触发时间:21000
    定时器触发,触发时间:21001
    

    每来一条数据,都会输出两行“数据到达”的信息,并以分割线隔开;两条数据到达的时
    间间隔为 5 秒。当第三条数据到达后,随后立即输出一条定时器触发的信息;再过 5 秒之后,剩余两条定时器信息输出,程序运行结束。

    我们可以发现,数据到来之后,当前的水位线与时间戳并不是一致的。当第一条数据到来,时间戳为 1000,可水位线的生成是周期性的(默认 200ms 一次),不会立即发生改变,所以依然是最小值 Long.MIN_VALUE;随后只要到了水位线生成的时间点(200ms 到了),就会依据当前的最大时间戳 1000 来生成水位线了。这里我们没有设置水位线延迟,默认需要减去 1 毫秒,所以水位线推进到了 999。而当时间戳为 11000 的第二条数据到来之后,水位线同样没有立即改变,仍然是 999,就好像总是“滞后”数据一样。

    这样程序的行为就可以得到合理解释了。事件时间语义下,定时器触发的条件就是水位线推进到设定的时间。第一条数据到来后,设定的定时器时间为 1000 + 10 * 1000 = 11000;而当时间戳为 11000 的第二条数据到来,水位线还处在 999 的位置,当然不会立即触发定时器;而之后水位线会推进到 10999,同样是无法触发定时器的。必须等到第三条数据到来,将水位线真正推进到 11000,就可以触发第一个定时器了。第三条数据发出后再过 5 秒,没有更多的数据生成了,整个程序运行结束将要退出,此时 Flink 会自动将水位线推进到长整型的最大值(Long.MAX_VALUE)。于是所有尚未触发的定时器这时就统一触发了,我们就在控制台看到了后两个定时器的触发信息。

    二、 窗口处理函数

    除 了 KeyedProcessFunction , 另 外 一 大 类 常 用 的 处 理 函 数 , 就 是 基 于 窗 口 的ProcessWindowFunction 和 ProcessAllWindowFunction 了。

    2.1 窗口处理函数的使用

    进行窗口计算,我们可以直接调用现成的简单聚合方法(sum/max/min),也可以通过调
    用.reduce()或.aggregate()来自定义一般的增量聚合函数(ReduceFunction/AggregateFucntion);而对于更加复杂、需要窗口信息和额外状态的一些场景,我们还可以直接使用全窗口函数、把数据全部收集保存在窗口内,等到触发窗口计算时再统一处理。窗口处理函数就是一种典型的全窗口函数。

    窗 口 处 理 函 数 ProcessWindowFunction 的 使 用 与 其 他 窗 口 函 数 类 似 , 也 是 基 于WindowedStream 直接调用方法就可以,只不过这时调用的是.process()。

    stream.keyBy( t -> t.f0 )
        .window( TumblingEventTimeWindows.of(Time.seconds(10)) )
        .process(new MyProcessWindowFunction())
    

    2.2 ProcessWindowFunction 解析

    ProcessWindowFunction 既是处理函数又是全窗口函数。从名字上也可以推测出,它的本质似乎更倾向于“窗口函数”一些。事实上它的用法也确实跟其他处理函数有很大不同。我们可以从源码中的定义看到这一点:

    public abstract class ProcessWindowFunction<IN, OUT, KEY, W extends Window> extends AbstractRichFunction {
        ...
    
        public abstract void process(KEY key, Context context, Iterable<IN> elements, Collector<OUT> out) throws Exception;
        public void clear(Context context) throws Exception {}
    
        public abstract class Context implements java.io.Serializable {...}
    
    }
    

    ProcessWindowFunction 依然是一个继承了 AbstractRichFunction 的抽象类,它有四个类型参数:

    • IN:input,数据流中窗口任务的输入数据类型。
    • OUT:output,窗口任务进行计算之后的输出数据类型。
    • KEY:数据中键 key 的类型。
    • W:窗口的类型,是Window 的子类型。一般情况下我们定义时间窗口,W 就是TimeWindow。

    而内部定义的方法,跟我们之前熟悉的处理函数就有所区别了。因为全窗口函数不是逐个处理元素的,所以处理数据的方法在这里并不是.processElement(),而是改成了.process()。方法包含四个参数。

    • key:窗口做统计计算基于的键,也就是之前 keyBy 用来分区的字段。
    • context:当前窗口进行计算的上下文,它的类型就是 ProcessWindowFunction
      内部定义的抽象类Context。
    • elements:窗口收集到用来计算的所有数据,这是一个可迭代的集合类型。
    • out:用来发送数据输出计算结果的收集器,类型为Collector。

    可以明显看出,这里的参数不再是一个输入数据,而是窗口中所有数据的集合。而上下文context 所包含的内容也跟其他处理函数有所差别:

    public abstract class Context implements java.io.Serializable {
    
        public abstract W window();
        
        public abstract long currentProcessingTime(); 
        
        public abstract long currentWatermark();
        
        public abstract KeyedStateStore windowState();
        
        public abstract KeyedStateStore globalState();
        
        public abstract <X> void output(OutputTag<X> outputTag, X value);
    }
    

    除了可以通过.output()方法定义侧输出流不变外,其他部分都有所变化。这里不再持有TimerService 对象,只能通过 currentProcessingTime()和 currentWatermark()来获取当前时间,所以失去了设置定时器的功能;另外由于当前不是只处理一个数据,所以也不再提供.timestamp() 方法。与此同时,也增加了一些获取其他信息的方法:比如可以通过.window()直接获取到当前的窗口对象,也可以通过.windowState()和.globalState()获取到当前自定义的窗口状态和全局状态。注意这里的“窗口状态”是自定义的,不包括窗口本身已经有的状态,针对当前 key、当前窗口有效;而“全局状态”同样是自定义的状态,针对当前 key 的所有窗口有效。

    所以我们会发现,ProcessWindowFunction 中除了.process()方法外,并没有.onTimer()方法, 而是多出了一个.clear()方法。从名字就可以看出,这主要是方便我们进行窗口的清理工作。如果我们自定义了窗口状态,那么必须在.clear()方法中进行显式地清除,避免内存溢出。

    这里有一个问题:没有了定时器,那窗口处理函数就失去了一个最给力的武器,如果我们希望有一些定时操作又该怎么做呢?其实仔细思考会发现,对于窗口而言,它本身的定义就包含了一个触发计算的时间点,其实一般情况下是没有必要再去做定时操作的。如果非要这么干, Flink 也提供了另外的途径——使用窗口触发器(Trigger)。在触发器中也有一个TriggerContext,它可以起到类似TimerService 的作用:获取当前时间、注册和删除定时器,另外还可以获取当前的状态。这样设计无疑会让处理流程更加清晰——定时操作也是一种“触发”,所以我们就让所有的触发操作归触发器管,而所有处理数据的操作则归窗口函数管。

    至于另一种窗口处理函数 ProcessAllWindowFunction,它的用法非常类似。区别在于它基于的是 AllWindowedStream,相当于对没有 keyBy 的数据流直接开窗并调用.process()方法:

    stream.windowAll( TumblingEventTimeWindows.of(Time.seconds(10)) )
        .process(new MyProcessAllWindowFunction())
    

    三、应用案例——Top N

    窗口的计算处理,在实际应用中非常常见。对于一些比较复杂的需求,如果增量聚合函数无法满足,我们就需要考虑使用窗口处理函数这样的“大招”了。

    网站中一个非常经典的例子,就是实时统计一段时间内的热门 url。例如,需要统计最近
    10 秒钟内最热门的两个 url 链接,并且每 5 秒钟更新一次。我们知道,这可以用一个滑动窗口来实现,而“热门度”一般可以直接用访问量来表示。于是就需要开滑动窗口收集 url 的访问数据,按照不同的 url 进行统计,而后汇总排序并最终输出前两名。这其实就是著名的“Top N”问题。

    很显然,简单的增量聚合可以得到 url 链接的访问量,但是后续的排序输出 Top N 就很难
    实现了。所以接下来我们用窗口处理函数进行实现。

    3.1 使用 ProcessAllWindowFunction

    一种最简单的想法是,我们干脆不区分 url 链接,而是将所有访问数据都收集起来,统一
    进行统计计算。所以可以不做 keyBy,直接基于 DataStream 开窗,然后使用全窗口函数ProcessAllWindowFunction 来进行处理。

    在窗口中可以用一个 HashMap 来保存每个 url 的访问次数,只要遍历窗口中的所有数据,自然就能得到所有 url 的热门度。最后把 HashMap 转成一个列表 ArrayList,然后进行排序、取出前两名输出就可以了。

    代码具体实现如下:

    import com.yibo.flink.datastream.Event;
    import com.yibo.flink.sourcecustom.ClickSource;
    import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
    import org.apache.flink.api.common.eventtime.WatermarkStrategy;
    import org.apache.flink.api.common.functions.AggregateFunction;
    import org.apache.flink.api.java.tuple.Tuple2;
    import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.api.functions.windowing.ProcessAllWindowFunction;
    import org.apache.flink.streaming.api.windowing.assigners.SlidingEventTimeWindows;
    import org.apache.flink.streaming.api.windowing.time.Time;
    import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    import org.apache.flink.util.Collector;
    
    import java.sql.Timestamp;
    import java.time.Duration;
    import java.util.ArrayList;
    import java.util.HashMap;
    import java.util.List;
    
    
    public class TopNExample_ProcessAiiWindowFunction {
    
        public static void main(String[] args) throws Exception {
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            env.setParallelism(1);
    
            //乱序流的Watermark生成
            SingleOutputStreamOperator<Event> stream = env.addSource(new ClickSource())
                    // 插入水位线的逻辑 设置 watermark 延迟时间,2 秒
                    .assignTimestampsAndWatermarks(
                            // 针对乱序流插入水位线,延迟时间设置为 2s
                            WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(2))
                            // 抽取时间戳的逻辑
                            .withTimestampAssigner(new SerializableTimestampAssigner<Event>() {
                                @Override
                                public long extractTimestamp(Event element, long recordTimestamp) {
                                    return element.getTimestamp();
                                }
                            }));
    
            //直接开窗, 收集所有数据排序
            stream.map(Event::getUrl)
                    .windowAll(SlidingEventTimeWindows.of(Time.seconds(10), Time.seconds(5)))
                    .aggregate(new UrlHashMapCountAgg(), new UrlAllWindowResult())
                    .print();
            
            env.execute();
        }
    
        /**
         * 实现自定义的增量聚合函数
         * 自定义实现AggregateFunction, 增量计算url页面的访问量,来一条数据就 +1
         */
        public static class UrlHashMapCountAgg implements AggregateFunction<String, HashMap<String, Long>, List<Tuple2<String, Long>>> {
    
            @Override
            public HashMap<String, Long> createAccumulator() {
                return new HashMap<>();
            }
    
            @Override
            public HashMap<String, Long> add(String value, HashMap<String, Long> accumulator) {
                if(accumulator.containsKey(value)){
                    Long count = accumulator.get(value);
                    accumulator.put(value,count + 1);
                }else {
                    accumulator.put(value, 1L);
                }
                return accumulator;
            }
    
            @Override
            public List<Tuple2<String, Long>> getResult(HashMap<String, Long> accumulator) {
                List<Tuple2<String, Long>> result = new ArrayList<>();
                accumulator.forEach((url, count) -> {
                    result.add(Tuple2.of(url, count));
                });
                result.sort((o1, o2) -> o2.f1.intValue() - o1.f1.intValue());
                return result;
            }
    
            @Override
            public HashMap<String, Long> merge(HashMap<String, Long> a, HashMap<String, Long> b) {
                return null;
            }
        }
    
    
        /**
         * 自定义全窗口函数, 包装信息输出结果
         */
        public static class UrlAllWindowResult extends ProcessAllWindowFunction<List<Tuple2<String, Long>>, String, TimeWindow> {
    
            @Override
            public void process(Context context, Iterable<List<Tuple2<String, Long>>> iterable, Collector<String> out) throws Exception {
                List<Tuple2<String, Long>> list = iterable.iterator().next();
                StringBuilder result = new StringBuilder();
                result.append("-------------------------------------\n");
                result.append("窗口结束时间: " + new Timestamp(context.window().getEnd()) + "\n");
    
                //取list前两个包装信息输出
                for (int i = 0; i < 2; i++) {
                    Tuple2<String, Long> curTuple2 = list.get(i);
                    String info = "NO. " + (i + 1) + ": " + curTuple2.f0 +"访问量:" + curTuple2.f1 +"\n";
                    result.append(info);
                }
                result.append("-------------------------------------\n");
                out.collect(result.toString());
            }
        }
    }
    

    运行结果如下所示:

    -------------------------------------
    窗口结束时间: 2022-07-17 23:07:40.0
    NO. 1: ./cart访问量:6
    NO. 2: ./home访问量:2
    -------------------------------------
    

    3.2 使用 KeyedProcessFunction

    在上面实现过程中,我们没有进行按键分区,直接将所有数据放在一个分区上进行
    了开窗操作。这相当于将并行度强行设置为 1,在实际应用中是要尽量避免的,所以 Flink 官方也并不推荐使用 AllWindowedStream 进行处理。另外,我们在全窗口函数中定义了 HashMap来统计 url 链接的浏览量,计算过程是要先收集齐所有数据、然后再逐一遍历更新 HashMap,这显然不够高效。如果我们可以利用增量聚合函数的特性,每来一条数据就更新一次对应 url的浏览量,那么到窗口触发计算时只需要做排序输出就可以了。

    基于这样的想法,我们可以从两个方面去做优化:一是对数据进行按键分区,分别统计浏览量;二是进行增量聚合,得到结果最后再做排序输出。所以,我们可以使用增量聚合函数AggregateFunction 进行浏览量的统计,然后结合 ProcessWindowFunction 排序输出来实现 Top N的需求。

    具体实现思路就是,先按照 url 对数据进行 keyBy 分区,然后开窗进行增量聚合。这里就会发现一个问题:我们进行按键分区之后,窗口的计算就会只针对当前 key 有效了;也就是说,每个窗口的统计结果中,只会有一个 url 的浏览量,这是无法直接用 ProcessWindowFunction进行排序的。所以我们只能分成两步:先对每个 url 链接统计出浏览量,然后再将统计结果收集起来,排序输出最终结果。因为最后的排序还是基于每个时间窗口的,所以为了让输出的统计结果中包含窗口信息,我们可以借用第六章中定义的 POJO 类 UrlViewCount 来表示,它包含了 url、浏览量(count)以及窗口的起始结束时间。之后对 UrlViewCount 的处理,可以先按窗口分区,然后用 KeyedProcessFunction 来实现。

    总结处理流程如下:

    • (1)读取数据源;
    • (2)筛选浏览行为(pv);
    • (3)提取时间戳并生成水位线;
    • (4)按照 url 进行 keyBy 分区操作;
    • (5)开长度为 1 小时、步长为 5 分钟的事件时间滑动窗口;
    • (6)使用增量聚合函数 AggregateFunction,并结合全窗口函数 WindowFunction 进行窗口聚合,得到每个 url、在每个统计窗口内的浏览量,包装成 UrlViewCount;
    • (7)按照窗口进行 keyBy 分区操作;
    • (8)对同一窗口的统计结果数据,使用 KeyedProcessFunction 进行收集并排序输出。

    糟糕的是,这里又会带来另一个问题。最后我们用 KeyedProcessFunction 来收集数据做排序,这时面对的就是窗口聚合之后的数据流,而窗口已经不存在了;那到底什么时候会收集齐所有数据呢?这问题听起来似乎有些没道理。我们统计浏览量的窗口已经关闭,就说明了当前已经到了要输出结果的时候,直接输出不就行了吗?

    没有这么简单。因为数据流中的元素是逐个到来的,所以即使理论上我们应该“同时”收
    到很多 url 的浏览量统计结果,实际也是有先后的、只能一条一条处理。下游任务(就是我们定义的 KeyedProcessFunction)看到一个 url 的统计结果,并不能保证这个时间段的统计数据不会再来了,所以也不能贸然进行排序输出。解决的办法,自然就是要等所有数据到齐了——这很容易让我们联想起水位线设置延迟时间的方法。这里我们也可以“多等一会儿”,等到水位线真正超过了窗口结束时间,要统计的数据就肯定到齐了。
    具体实现上,可以采用一个延迟触发的事件时间定时器。基于窗口的结束时间来设定延迟,其实并不需要等太久——因为我们是靠水位线的推进来触发定时器,而水位线的含义就是“之前的数据都到齐了”。所以我们只需要设置 1 毫秒的延迟,就一定可以保证这一点。

    而在等待过程中,之前已经到达的数据应该缓存起来,我们这里用一个自定义的“列表状
    态”(ListState)来进行存储。这个状态需要使用富函数类的 getRuntimeContext()方法获取运行时上下文来定义,我们一般把它放在 open()生命周期方法中。之后每来一个UrlViewCount,就把它添加到当前的列表状态中,并注册一个触发时间为窗口结束时间加 1毫秒(windowEnd + 1)的定时器。待到水位线到达这个时间,定时器触发,我们可以保证当前窗口所有 url 的统计结果 UrlViewCount 都到齐了;于是从状态中取出进行排序输出。

    具体代码实现如下:

    import com.yibo.flink.datastream.Event;
    import com.yibo.flink.sourcecustom.ClickSource;
    import com.yibo.flink.window.UrlViewCount;
    import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
    import org.apache.flink.api.common.eventtime.WatermarkStrategy;
    import org.apache.flink.api.common.functions.AggregateFunction;
    import org.apache.flink.api.common.state.ListState;
    import org.apache.flink.api.common.state.ListStateDescriptor;
    import org.apache.flink.api.common.typeinfo.Types;
    import org.apache.flink.configuration.Configuration;
    import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.api.functions.KeyedProcessFunction;
    import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction;
    import org.apache.flink.streaming.api.windowing.assigners.SlidingEventTimeWindows;
    import org.apache.flink.streaming.api.windowing.time.Time;
    import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    import org.apache.flink.util.Collector;
    
    import java.sql.Timestamp;
    import java.time.Duration;
    import java.util.ArrayList;
    import java.util.Comparator;
    import java.util.List;
    import java.util.stream.Collectors;
    
    
    public class TopNExample {
    
        public static void main(String[] args) throws Exception {
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            env.setParallelism(1);
    
            //乱序流的Watermark生成
            SingleOutputStreamOperator<Event> stream = env.addSource(new ClickSource())
                    // 插入水位线的逻辑 设置 watermark 延迟时间,2 秒
                    .assignTimestampsAndWatermarks(
                            // 针对乱序流插入水位线,延迟时间设置为 2s
                            WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(2))
                            // 抽取时间戳的逻辑
                            .withTimestampAssigner(new SerializableTimestampAssigner<Event>() {
                                @Override
                                public long extractTimestamp(Event element, long recordTimestamp) {
                                    return element.getTimestamp();
                                }
                            }));
            //按url分组, 统计窗口内每个url的访问量
            SingleOutputStreamOperator<UrlViewCount> urlCountStream = stream.keyBy(Event::getUrl)
                    .window(SlidingEventTimeWindows.of(Time.seconds(10), Time.seconds(5)))
                    .aggregate(new UrlViewCountAgg(), new UrlViewCountResult());
    
            urlCountStream.print("urlCount");
    
            //对同一窗口统计出的访问量, 进行收集和和排序
            urlCountStream.keyBy(UrlViewCount::getWindowEnd)
                    .process(new TopNProcessResult(2))
                    .print();
            
            env.execute();
        }
    
        //实现自定义的KeyedProcessFunction
        public static class TopNProcessResult extends KeyedProcessFunction<Long, UrlViewCount, String>{
    
            //定义一个属性 n
            private Integer n;
    
            //定义列表状态
            private ListState<UrlViewCount> urlViewCountListState;
    
            public TopNProcessResult(Integer n){
                this.n = n;
            }
    
            //在环境中获取状态
            @Override
            public void open(Configuration parameters) throws Exception {
                urlViewCountListState = getRuntimeContext().getListState(
                        new ListStateDescriptor<UrlViewCount>("url-count-list", Types.POJO(UrlViewCount.class))
                );
            }
    
            @Override
            public void processElement(UrlViewCount urlCountView, Context context, Collector<String> collector) throws Exception {
                //将数据保存到状态中
                urlViewCountListState.add(urlCountView);
                //注册windowEnd + 1ms定时器
                context.timerService().registerEventTimeTimer(context.getCurrentKey() + 1);
    
            }
    
            @Override
            public void onTimer(long timestamp, OnTimerContext ctx, Collector<String> out) throws Exception {
                List<UrlViewCount> list = new ArrayList<>();
                for (UrlViewCount urlViewCount : urlViewCountListState.get()) {
                    list.add(urlViewCount);
                }
                List<UrlViewCount> urlViewCountList = list.stream().sorted(Comparator.comparing(UrlViewCount::getCount).reversed()).collect(Collectors.toList());
    
                StringBuilder result = new StringBuilder();
                result.append("-------------------------------------\n");
                result.append("窗口结束时间: " + new Timestamp(ctx.getCurrentKey()) + "\n");
    
                //取list前两个包装信息输出
                for (int i = 0; i < 2; i++) {
                    UrlViewCount urlViewCount = urlViewCountList.get(i);
                    String info = "NO. " + (i + 1) + ": " + urlViewCount.getUrl() +"访问量:" + urlViewCount.getCount() +"\n";
                    result.append(info);
                }
                result.append("-------------------------------------\n");
                out.collect(result.toString());
            }
        }
    
        /**
         * 自定义实现AggregateFunction, 增量计算url页面的访问量,来一条数据就 +1
         */
        public static class UrlViewCountAgg implements AggregateFunction<Event, Long, Long> {
    
            @Override
            public Long createAccumulator() {
                return 0L;
            }
    
            @Override
            public Long add(Event value, Long accumulator) {
                return accumulator + 1;
            }
    
            @Override
            public Long getResult(Long accumulator) {
                return accumulator;
            }
    
            @Override
            public Long merge(Long a, Long b) {
                return null;
            }
        }
    
    
        /**
         * 自定义实现ProcessWindowFunction, 包装窗口信息输出
         */
        public static class UrlViewCountResult extends ProcessWindowFunction<Long, UrlViewCount, String, TimeWindow> {
    
            @Override
            public void process(String url, Context context, Iterable<Long> iterable, Collector<UrlViewCount> out) throws Exception {
                Long urlCount = iterable.iterator().next();
                //集合窗口信息输出
                long start = context.window().getStart();
                long end = context.window().getEnd();
                UrlViewCount urlCountView = new UrlViewCount();
                urlCountView.setUrl(url);
                urlCountView.setCount(urlCount);
                urlCountView.setWindowStart(start);
                urlCountView.setWindowEnd(end);
                out.collect(urlCountView);
            }
        }
    }
    

    代码中,我们还利用了定时器的特性:针对同一 key、同一时间戳会进行去重。所以对于
    同一个窗口而言,我们接到统计结果数据后设定的 windowEnd + 1 的定时器都是一样的,最终只会触发一次计算。而对于不同的 key(这里 key 是 windowEnd),定时器和状态都是独立的,所以我们也不用担心不同窗口间数据的干扰。

    我们在上面的代码中使用了后面要讲解的 ListState。这里可以先简单说明一下。我们先声明一个列表状态变量:

    private ListState<UrlViewCount> urlViewCountListState;
    

    然后在 open 方法中初始化了列表状态变量,我们初始化的时候使用了 ListStateDescriptor描述符,这个描述符用来告诉 Flink 列表状态变量的名字和类型。列表状态变量是单例,也就是说只会被实例化一次。这个列表状态变量的作用域是当前 key 所对应的逻辑分区。我们使用add 方法向列表状态变量中添加数据,使用 get 方法读取列表状态变量中的所有元素。

    另外,根据水位线的定义,我们这里的延迟时间设为 0 事实上也是可以保证数据都到齐的。

    四、侧输出流(Side Output)

    处理函数还有另外一个特有功能,就是将自定义的数据放入“侧输出流”(side output)输
    出。这个概念我们并不陌生,之前在窗口处理迟到数据时,最后一招就是输出到侧输出流。而这种处理方式的本质,其实就是处理函数的侧输出流功能。

    绝大多数转换算子,输出的都是单一流,流里的数据类型只能有一种。而侧输出流可以认为是“主流”上分叉出的“支流”,所以可以由一条流产生出多条流,而且这些流中的数据类型还可以不一样。利用这个功能可以很容易地实现“分流”操作。

    具体应用时,只要在处理函数的.processElement()或者.onTimer()方法中,调用上下文
    的.output()方法就可以了。

    DataStream<Integer> stream = env.addSource(...);
    
    SingleOutputStreamOperator<Long> longStream stream.process(new ProcessFunction<Integer, Long>() {
    
        @Override
        public void processElement( Integer value, Context ctx, Collector<Integer> out) throws Exception {
            // 转换成 Long,输出到主流中
            out.collect(Long.valueOf(value));
            // 转换成 String,输出到侧输出流中
            ctx.output(outputTag, "side-output: " + String.valueOf(value));
        }
    
    });
    

    这里 output()方法需要传入两个参数,第一个是一个“输出标签”OutputTag,用来标识侧输出流,一般会在外部统一声明;第二个就是要输出的数据。
    我们可以在外部先将OutputTag 声明出来:

    OutputTag<String> outputTag = new OutputTag<String>("side-output") {};
    

    如果想要获取这个侧输出流,可以基于处理之后的 DataStream 直接调用.getSideOutput() 方法,传入对应的OutputTag,这个方式与窗口API 中获取侧输出流是完全一样的。

    DataStream<String> stringStream = longStream.getSideOutput(outputTag);
    

    参考:
    https://blog.csdn.net/mynameisgt/article/details/124313485

    https://blog.csdn.net/mengxianglong123/article/details/123872220

    相关文章

      网友评论

          本文标题:Apache Flink——处理函数

          本文链接:https://www.haomeiwen.com/subject/cstrirtx.html