基于事件流的高效模式匹配
- Flink的CEP实现重度参考了论文《Efficient Pattern Matching over Event Streams》,此文是该论文核心部分的简易中文版。
- 直译完整翻译版
引言
事件流上的模式匹配越来越多受用于许多领域,包括金融服务,RFID-基于库存管理,点击流分析和电子电子健康系统。而正则表达式匹配经过充分研究,流上的模式匹配呈现两个新挑战:用于流模式匹配的语言比正则表达式的语言要丰富得多。此外,对这些模式的有效评估通过流查询需要新的算法和优化位置:流查询处理的常规知识(即使用选择联接聚合)是不够的。
正则表达式是模式匹配的一种应用,相比正则表达式匹配,流上的匹配面临两个新的挑战:
- 流上的模式匹配语言,必须能够表达比正则更丰富的语义。
- 流上的模式匹配(流查询)需要新的算法和优化规则:传统的流上查询处理的优化规则不够了。
在本文中,我们提出了一个正式的评估模型,为此类新查询提供了精确的语义,查询评估框架允许在有原则的方式。我们使用此模型进一步分析查询的运行时复杂性,并开发一套技术,通过利用存储和处理中的共享来提高运行时效率。我们的实验结果提供了有关运行时性能各种因素的见解,并证明了我们共享技术的显着性能提升。
事件流上的模式匹配是一种新的处理范例,其中连续到达的事件与复杂的模式进行匹配,用于匹配每个模式的事件被转换为新的事件以进行输出。确切地说,这种流上的模式匹配引起了信号由于行业[28,30,29,9]的广泛兴趣在金融服务[10],RFID-基于库存管理[31],点击流分析[26],和电子卫生系统[16]。在金融服务中,例如,经纪客户可能对证券交易感兴趣代表新市场的股票交易事件的频率趋势。在基于RFID的跟踪和监视中,位置可能希望跟踪货运的有效路径并检测供应链中的食物污染等异常情况。尽管正则表达式匹配是一个经过充分研究的计算机科学问题[17],但流上的模式匹配提出了两个新的挑战:
正则表达式匹配的研究已经非常成熟了,而流的模式匹配与正则相比有两个新的挑战:
- 更丰富的表达式语言
- 高效的流处理
流上模式匹配查询
(1) Query 1
PATTERN SEQ(Shelf a, ∼(Register b), Exit c)
WHERE skip_till_next_match(a, b, c) {
a.tag_id = b.tag_id
and a.tag_id = c.tag_id
/* equivalently, [tag_id] */ }
WITHIN 12 hours
在基于RFID的零售管理中,检测商品被从架子上拿下来,12小时内未付款,被带了出来。上边的Pattern序列中包含了3个子Pattern,商品从货架上拿下的Pattern,接下来在后续中的未注册商品的Pattern,最后是一个带出去的Pattern。~符号表示否定判断。
每一个子模式声明了一个对应于事件的变量(三个变量a,b,c)。在where中使用Pattern中定义的变量做判断,在本例中,判断条件是三个子模式的事件有相同的tag_id则视为一次匹配,需要将同一个tag_id的事件放在同一个分区中。类似于这样的相等比较,被叫做相等测试。最后,在该模式匹配中使用WITHIN关键字给定了时间窗口的限制条件,它定义的是整个模式序列时间窗口为12小时。
(2) Query 2
PATTERN SEQ(Alert a, Shipment+ b[ ])
WHERE skip_till_any_match(a, b[ ]) {
a.type = 'contaminated'
and b[1].from = a.site
and b[i].from = b[i-1].to }
WITHIN 3 hours
检测供应链中的错乱,首先捕获到一个站点的货物配送错乱的告警,然后跟踪该站点的一系列的受影响的配送。在pattern序列中使用了+号匹配一个或者多个后续的受影响的配送。b[]数组表示所有从警告a开始的所有受影响的配送,b[1]表示第一个受影响的配送,b[i]表示受前一个影响的配送。
b[i].from = b[i-1].to
上边的断言表示后一个配送来自于前一个配送。
(3) Query 3
PATTERN SEQ(Stock+ a[ ], Stock b)
WHERE skip_till_next_match(a[ ], b) {
[symbol]
and a[1].volume > 1000
and a[i].price > avg(a[..i-1].price)
and b.volume < 80%*a[a.LEN].volume }
WITHIN 1 hour
检测复杂的股票市场趋势:在过去一小时中,股价持续走高,然后在接下来的一段事件中,保持相对稳定的变化。该pattern序列中包含两个子pattern:一个股票事件的Kleene闭包 +运算,结果保存在a[]数组中,一个单一的股票事件保存在b中。
a[1].volume > 1000
该断言表示一个符合条件的匹配序列的开始。
a[i].price > avg(a[..i-1].price)
该断言要求后续的a事件是持续增长趋势的,对于当前事件a[i]要大于过去所有符合匹配条件的a[1] ...a[i-1]事件的平均值。这样就可以捕获一个持续增长的趋势(不是单调递增,总体趋势增长即可).(在FLink CEP中可以使用Iterative Conditions进行条件迭代累加)
b.volume < 80%*a[a.LEN].volume
该断言比较比较b和a[]中的最后一个事件,当b小于a[a.LEN]股价的80%的则认为是趋势的翻转。
除了定义变量和断言,模式查询还需要事件选择策略,用来在混杂的事件输入流中(相关和不相关的事件混杂在一起)选择事件。
事件选择策略
- 严格相邻 Strict contiguity
- 两个事件必须严格相邻,中间不能有其他事件。例如 对于模式 a.next(b),(a,b)合法,(a,c,b)不合法。
- 分区相邻 Partition contiguity
- 松散的严格相邻,partition可以理解为先group by,group by之后隶属于相同分组的必须严格相邻。在总体上事件流上不是严格相邻。
- 例如对于模式 a.next(b),按照group进行partition。 (group1,a) (group2, c) (group1,b) 合法的。 (group1,a) (group1, c) (group1,b)非法。
- 跳到下一个匹配 Skip till next match
- 完全不要求连续性(严格相邻和分区相邻),跳过所有不符合模式的事件,直到出现下一个符合模式的事件出现。使用这个策略,在Query1中可以忽略所有从货架取货和出门之间的所有不相关事件。在Query3中可以跳过不满足定义的趋势的事件。
- 在现实世界里,存在大量的信息噪声,该策略可以忽略这些信息噪声,关注在符合模式的事件上。
- 跳到任何一个匹配 Skip till any match
- 相比Skip till next match,该策略更加的宽松,允许在符合模式的事件上有不确定的行为。Query2中使用了此策略,假设b[]中最有一个地点是X,当符合模式的下一个事件到来时(地点是Y),对于该策略而言有两种行为:
- Take事件,将事件添加到b[]中,b[]的最后位置变为Y。
- Ignore事件,保存当前的b[]的状态,b[]的最后位置仍然是X,当后续的Z到来时,形成两个不同的匹配事件集合(X -> Y )和(X -> Z)。
- 相比Skip till next match,该策略更加的宽松,允许在符合模式的事件上有不确定的行为。Query2中使用了此策略,假设b[]中最有一个地点是X,当符合模式的下一个事件到来时(地点是Y),对于该策略而言有两种行为:
输出模式
模式匹配成功之后,需要将匹配的事件输出。一般有两种输出模式:
- 所有匹配事件(默认输出模式)
- 无重复事件
- 对于同一个分区,只输出一个匹配事件集合(严格相邻策略,把整个输入事件流当做一个分区)。换个说法,对于同一个分区,只有上一个匹配完成之后,才会启动下一次匹配过程。
对于组合事件和组合查询,只需要将上游的输出当做下游的输入即可。
三个要点
语义模型
在本章中,介绍可以精确表达流上模式匹配的 模型、模式匹配语言的编译算法,生成用在运行时刻的查询计划。
评估模型
[图片上传失败...(image-cc6b3a-1578037225804)]
模型由一个非确定状态机和一个匹配缓冲区组成。
状态机的数学表达形式(Q, Σ, T, q0, F)如下:
- 状态的有限集合Q
- 输入符号(边)的有限集合Σ
- 转移函数T : Q×Σ → P(Q)
- “初始”(或“开始”)状态q0,有着q0 ∈ Q
- “接受”(或“最终”)状态的集合F,有着F ⊆ Q
状态
在图2(a)中,a[1]是匹配流程的起点。等待输入事件开启闭包的匹配,与a[1]匹配的事件写入匹配缓冲区a[1]对应的存储单元。进入下一个状态a[i]之后,符合匹配的条件写入匹配缓冲区的a[i](i > 1)对应的存储单元。接下来的状态b,说明闭包比配完毕,准备进入下一个状态的匹配。结束状态表示匹配过程结束,输出匹配的结果。
总而言之,状态集合被排列为一个线性的序列,序列中包含了任意数量的孤子状态s(非闭包匹配都是孤子状态singleton state),或者状态对p[1],p[i] (闭包状态),加上最右边的结束状态。
孤子状态类似于p[1],但是没有后边的p[i]。
边
每个状态与一定数量的边相关联,边表示此状态上的行为。
在图2(a)中,每个孤子状态或者状态对中的第一个状态(本例中是p[1])都有一个向前的begin边,每一个状态对中的第二个状态(本例中是p[i]都有一个向前的proceed边和一个循环的take边。除了起始和结束状态,每个孤子状态都有一个循环的ignore边。起始状态没有入边。
状态上的每个边,都可以用一个三元组来表示:
- 计算公式: 计算公式用来计算匹配条件,记做 。计算公式是从模式查询语句编译而来。
- 对输入流的操作: 是否消费输入的事件
- 对匹配缓冲区的操作: 是否写入匹配缓冲区
如图2(a)中所示
- 实现表示begin和take边,消费事件并写入匹配缓冲区。
- 虚线表示ignore边,消费输入事件但是不写入匹配缓冲区。
- 带菱形箭头的边是proceed边,不消费任何输入事件,根据边上计算公式判断是否推进到下一个状态。
非确定性
当一个状态的两个边上的条件不互斥的时候,状态机会进入不确定状态。例如,如果和不互斥,就会进入一个skip-till-any-match的状态。这种不确定性,是从模式查询语句编译而来的,一切取决于模式查询语句如何编写。
运行实例
一个包含匹配缓冲区中的一组匹配事件,每个实例都有自己的一组唯一的匹配事件。例如对于Query3,一个的实例匹配的事件是,,和,对应的匹配缓冲区的存储单元叫做a[1],a[2]和b。
当实例到达结束状态的时候,就认为匹配成功。模式查询就是在流上找到成功的模式匹配事件,并将结果输出。
带有否定判断和组合查询的模式匹配查询,首先会对子查询构建状态机,然后组合而成。(此处比较绕,需要后续研究澄清)。特别是对于嵌套查询的否定语义而言。
举例来说,在Query1中,该模式首先识别从货架上取下物品,最后识别带出门外,中间需要确保物品没有付款(这三个模式作用于有相同tag_id的物品上)。为了在中支持否定语义,首先需要计算肯定语义的模式,然后查找有没有符合否定语义的事件,如果有则匹配失败。(此处的否定语义匹配,是不包含否定符号的,如Query1中,如果存在register事件,则整个匹配失败)。
查询编译
本节介绍将简单模式查询语句(无否定判断和组合)转换为状态机的规则。否定判断和组合查询的组合状态机,可以通过严格遵循其语义构建。(此处翻译的很拗口,待研究澄清)。编译转换生成的查询计划用作在运行时判断事件流是否满足模式。
基本算法
以Query3为例逐步介绍该算法的基本步骤:
结构
如图2中所示,Pattern子句定义了状态机的结构,包括所有的状态和状态上的边。
该算法然后将WHERE和WITHIN子句转换为边上的计算公式。
Predicates断言
该算法从WHERE子句开始,将WHERE中的断言(逻辑判断条件)变成begin、take、proceed边,如图2(b)所示。
首先将所有的断言转换为CNF范式,把相等判断[symbol]转换为标准格式,例如a[i].symbol = a[1].symbol.
然后根据状态的初始化顺序对生成的CNF范式进行排序。在这个过程中,每一个出现在WHERE子句中的变量叫做一个Identifer(标识符),在Query3中的标识符有a[1],a[i],a[a.len],b。CNF范式的最后一个Identifer,是中最有一个实例化的Identifer。例如逻辑表达式" b.volume < 80% * a[a.len].volume ",标识b与标识符a[a.len],标识符b所在的状态比标识符a[a.len]所在的状态靠后,初始化的要晚。
排序之后,每一个逻辑表达式被赋予表达式中后一个标识符所在的状态。在状态a[i]上,同时存在take和proceed边,如果a[i]是后边的标识符,则逻辑表达式放在a[i]的take边,否则放在proceed边(例如对于标识符a[a.len])。在Query3中,proceed边设置为True,因为没有断言(逻辑表达式的中靠后的标识符是a[a.len])。(此处需要进一步解释)
事件选择策略-
ignore边上的的公式取决于使用的事件选择策略。尽管模式查询语义可能使用多个策略,但是我们的算法以简单、系统的方式确定状态q的ignore边的公式:
事件选择策略ignore边的公式说明严格相邻False分区相邻¬ (partition condition)跳过直到下一个匹配¬ (take or begin condition)跳过直到任意匹配True
- 当使用严格相邻策略时,为False,不允许任何忽略任何事件。
- 当使用分区相邻策略时,的公式为¬ (partition condition),允许忽略与该分区不相关的事件。
- 当使用跳过直到下一个匹配策略时,边的公式为¬ (take or begin condition)。回顾Query3,在图2(b)中,状态a[i]的ignore边的公式设置为,所有不满足take条件的事件都被忽略。
- 当使用跳过直到任意匹配策略时,永远为True,允许忽略任何事件,包括相关和不相关的事件。
时间窗口
模式序列只能具有一个时间约束。 如果在不同的单独模式上定义了多个这样的约束,那么将应用最小的约束。
优化
编译时将停止和过滤条件进行前推,可以避免计算能力的浪费,提高执行效率。后续提供了几项优化策略。
- 时间窗口推进 : 到目前为止WITHIN条件放置在指向结束状态的边上,可以将该条件放置到所有前序状态的take、ignore、bengin边上。这样可以在早期就能发现匹配时长超过了窗口限制,尽早的终止匹配,避免无效的计算。在所有的边上都增加了时间判断条件,可能会增加一点计算资源的消耗,相对于无效计算而言,这点消耗是值得的。图2(c)中表明了Query3中经过优化的 和 。
- 约束proceed边:
- 如Query3中,proceed边的计算公式为True,后续的状态不是结束状态。状态a[i]的proceed边会导致不确定性,再创建一个新的状态机实例。为了避免创建non-viable实例,我们通过在当前事件中“窥视”并确定它是否能满足下一个状态b的begin边的条件来决定是进入下一状态。
- 在否定语义中,不允许proceed到下一个状态。有一个小的例外,如果a[i]的take和ignore边的计算结果都是False,那么可以尝试proceed到状态b。图2(c)是优化后的状态a[i]的take、ignore、proceed边的条件。
在导致不确定性的边的位置,会导致创建新的实例,用来表示不同的匹配。(此处需要仔细研究确认)在本文中模式匹配语法使用的SASE+语法,但是算法的基本步骤1-4和优化步骤5-6同样适用于其他模式匹配语言。
语义表达能力
图3 查询3的示例模式匹配.png运行时的复杂性
在介绍了查询评估模型和编译技术之后,我们接下来转向设计一个运行时引擎,该引擎在事件流上执行基于编译而来的查询计划。新的查询计划的抽象结构和和复杂性带来了,对设计新的运行引擎提出了很大的挑战。
在本节中,我们将在第1小节中描述这些挑战,并在第2小节中提供运行时复杂性的分析结果。 用于高效查询评估的运行时解决方案将在下一节中介绍。
运行时的关键问题
执行模式匹配查询的时候,会有大量的实例并发执行,而且有些实例是长周期运行的,可能会持续执行数天,甚至数月。
并发的实例
以图2中的Query3为例,事件流为图3中所示,当事件 到达时,产生了两个匹配结果、,当事件 到达时,产生了匹配结果 。对于图3中的输入事件流,产生了三个三个实例,分别产生了各自的匹配结果结果、、,且包含了相互重复的事件。
有两种情况会创建实例:
- 满足开始条件创建实例
- 当新来的时间满足开始状态的条件时,创建一个新的实例,新的实例与之前的实例相互独立,没有关联关系。如图3中所示,事件、都满足开始状态的条件,所以创建了两个实例,分别生成了匹配结果、。
- 非确定性边带来的新实例
- 当状态的边上的条件不互斥的时候,会创建新的实例。中有四种边的不确定性:
- Take-Proceed:
- 在图3中。当事件到达状态a[i]时,同时满足 和,此时有两个方向可以前进,此时会将状态机分裂成两个,分别指向不同的方向,这两个状态机,最终产生了不同的匹配结果,在图3中分别对应和
- Take-proceed这种不确定性,是由于查询匹配语句中的条件决定的,即便是采用严格相邻策略和分区相邻策略也不可避免。
- Ignore-Proceed
- 当使用比较宽松的策略skip-to-next-match时,的条件也变宽松(如原文3.2所述)。在这种情况下,如果和的条件不互斥,就会在ignore边和proceed边之间产生不确定性,图3中就有Ignore-Proceed不确定性。
- Take-Ignore
- 当使用了skip-till-any-match事件选择策略时,永为True的时候。状态a[i]的take边和ignore边之间会产生不确定性。
- Begin-Ignore
- 当使用了skip-till-any-match事件选择策略时,任何孤子状态或者闭包状态的第一个状态的begin边和ignore边之间,都可能存在不确定性。
- Take-Proceed:
- 当状态的边上的条件不互斥的时候,会创建新的实例。中有四种边的不确定性:
实例的运行周期
实例的运行周期很大程度取决于模式查询语句中的事件选择策略,当使用严格相邻策略时,运行周期一般都较短,一旦下一个事件不匹配就放弃继续匹配。当使用非严格相邻策略时,每一个状态的判断需要忽略不相关的事件,花费更多的时间等待下一个匹配事件,运行周期一般会长一些。特别是对于那些实际上没有匹配结果的实例,在匹配窗口结束前,无法确定有没有匹配结果,只能等待窗口结束,匹配超时放弃执行,这是最坏的情况。
复杂性分析
复杂性证明过程
为了能够更加严谨的分析运行时的复杂性,此处引入了一个新的概念:分区窗口(partition window)。分区窗口包含了隶属于该分区的所有事件。
定义:
- 模式匹配查询语句中的时间窗口。
- 可以拥有相同时间戳的最大事件数量。
- 一个分区实例,可以有1个或者多个(严格相邻策略把整个事件流视为1个分区)。
- 分区窗口的大小,可以使用来估算。
在原文中接下来证明了最坏情况下,模式查询会创建的数量的上限。此处暂不翻译,感兴趣的可以翻阅论文的原文了解证明过程。证明的结论如果按照每个不确定性分支,都会创建新的实例的做法,不太可行。显而易见,每创建一个新的实例都需要保存事件记录,新的事件到来时,需要在所有的实例上进行处理,消耗的存储(内存)和计算(cpu)成本不断的增加。
共享的重要性
实现高效计算的关键点:在执行周期较长的实例之间共享存储和计算资源。本文中的提出的数据结构和算法支持共享,包含了一个匹配共享缓冲区和计算过程中合并实例。下一节中详细说明,此处暂不介绍。
接下来介绍一下共享的两个重要的优点。
- viable 和non-viable 实例之间的共享
- viable实例最终会到达结束状态,产生匹配结果。non-viable实例在匹配的过程中产生,但是最终会匹配失败。在viable 和non-viable 实例之间共享存储和计算资源,可以将所有的实例的数量降低到匹配成功的的数量。
- 所有可能的包含了匹配成功和失败的所有的。
- 当non-viable 占大多数的时候,性能的提升尤其明显。
- viable实例之间的共享
- 如果viable实例处理和存储相同的事件,那么通过共享可以降低资源的占用。尤其是当大部分实例都是viable,会匹配成功而产生匹配结果时。
匹配结果的输出成本
匹配结果的输出成本与匹配结果的数量呈线性关系。如果查询语句产生了大量的成功匹配,即便是使用了共享的方法,也会导致很高的输出成本。为了解决这个问题,在本文的方法中,支持两种输出模式,由应用开发者根据需求场景、效率选择。
- bose 模式
- 枚举所有的事件,每个实例输出各自的匹配的所有结果对象。匹配结果中包含了各自匹配到的事件对象。
- 压缩模式
- 返回匹配的引用的集合,集合中使用紧凑的数据结构(事件对象的引用,而不是存储事件对象本身)。提供解压缩算法,从共享缓冲区提取需要的事件对象。这样就可以避免一次性输出所有的匹配结果,而是让应用选择提取哪些对象,带来更大的灵活性。
运行时的优化方法
本章节中,根据前边对问题的分析,提出了新的运行时模型来支持基于的查询计划。在设计运行时的优化方法的时候,同时考虑了在示例之间共享存储和计算的资源。
基于版本的共享匹配缓冲区
首先构建版本的共享匹配缓冲区,该缓冲区提供了一种来编码部分和完成的匹配结果,所有的实例共享该缓冲区。
在接下来首先描述如何为一个单独的缓冲区实现,接着提供了合并缓冲区的方法,允许该穿冲去在所有的实例之间共享。
图4 (a)-(c)呈现了三个独立的缓冲区,分别对应于图3中的三个匹配结果,,,。每个缓冲区包含了多个堆栈,每个堆栈对应于一个状态(结束状态没有堆栈)。
堆栈包含了指向事件的引用(为了实现简单,也可以存储对象本身),只有满足了当前状态的begin或者take边的事件才会被记录到当前状态的堆栈中。从图中可以看出来,每一个事件都有一个指向前一个匹配事件的引用(前一个事件可以在当前堆栈中,也可以在前一个堆栈中)。当事件添加到缓冲区(堆栈)的时候,引用就设置好了。
当事件触发了边的条件,到达结束状态时,从当前事件开始向前遍历缓冲区获取到该实例匹配结果的所有事件引用集合。
合并独立缓冲区的问题
每个实例有自己的缓冲区是不经济的,为了避免大量的堆栈和重复的事件,将各自独立的缓冲区合并成为共享缓冲区是一种较好的做法。在保留每个匹配的前向指针的前提下,合并对应状态的堆栈,去掉重复的事件。
简单的去掉重复事件合并堆栈,在遍历匹配事件的时候结果是错的。假设将,的缓冲区合并,在状态a[i]对应的堆栈中合并,在状态b对应的堆栈中合并。然后从开始向前遍历得到的结果是,这个结果显然是错的。错误的原因是没有区分来自不同独立缓冲区的指针引用。
如何解决合并独立缓冲区的冲突问题
为了解决合并缓冲区过程中出现的问题,本文中使用了一种带版本的共享缓冲区,为不同的示例分配不同的版本号,每一实例中创建的事件指针引用都带有该版本号。
问题在于实例没有预先分配的版本号,但是在任何一个状态上都可能导致新的实例。所以在本方法中版本号使用了杜威十进制分类法进行编码,形式如下:
(.)
指向当前的状态。
简单来说,当一个实例来自有从开始状态的第次分裂。版本号为的实例来自于处于状态上实例的分裂,处于状态上实例叫做版本号为的实例的祖先。
这个方法保证了实例的版本号与其祖先的版本号兼容:
- 使用作为前缀
- 和只有最后一位不同,并且 的 > 的。
如图4(d)中所示,,,的缓冲区合并之后的效果。一个缓冲区的所有引用被标记为兼容的版本号。上边合并独立缓冲区所提到的问题就解决了,到,的版本号为2.0.0,与到的版本号(1.0)不兼容(状态a[i]对应的堆栈)。
从上边可以看出,带版本的匹配缓冲区为所有的匹配结果提供了紧凑的表达形式(杜威十进制分类法),每一组匹配结果可以看做一组具有兼容的版本号的事件和指向事件的引用的视图。读取一个实例的匹配结果,只要根据杜威十进制分类法的版本号,从当前事件向前遍历,取出版本号兼容的事件,再从取出的事件向前遍历,遍历完成,即可获得该实例的匹配结果所包含的所有事件。
多个NFA实例的运行
每一个实例的执行分为两个阶段:
- 模式匹配阶段
- 在模式匹配阶段,根据输入的事件流不断的判断是否要跳转到下一个状态,直到到达最终的结束状态。在匹配的过程中,把匹配的事件不断的写入到匹配缓冲区,以便在匹配结果构建阶段,生成完整的匹配结果。
- 匹配结果构建阶段
- 在匹配结果构建阶段,从匹配缓冲区取回该实例匹配的所有事件(上节中讲了)。
本节主要讲一下高效模式匹配的算法。
基本算法-
首先我们希望寻找一个对单独的实例最高效的方案。本文的解决方案基于 实例的computation state。computation state是用来计算后续的边的公式(边上的where条件)的最小值的集合。
以Query3为例,在状态a[i]上,计算take边的条件需要之前的价格的平均值。缓冲区可以用来从缓存的事件中计算类似的值,但是有时候并不是最高效的做法。在本文中的做法是,牺牲一点空间效率换取性能,在匹配缓冲区之外,开辟一个很小的空间来保存计算过程中所需要的中间数据。
图5 Query3对应的computation state图5 Query3对应的computation state
图5(a)中展示了Query3对应的computation state的数据结构,共包含5个字段:
- 实例的版本号
- 实例所处的状态
- 实例所对应的最新的事件的指针
- 实例的起始时间
- 一个向量 ,保存所有在未来的边的条件计算中需要用到的数据
特别提一下,向量中包含了一组列的集合,每一列记录一个在边计算公式中用到的变量的值。
回顾在图2中的边计算公式,从每个公式的右操作数中提取需要用到的变量,使用一个三元组(需要该变量的状态,用到的属性和需要的操作)在向量中标记每个变量。
以图5(a)为例
- 向量中的第2个列表示在状态a[1]上,当有匹配的事件时,将事件的symbol属性记录下来,在后续的边等值条件判断中会用到。
- 向量中的第2、3列共同完成的计算,对于状态a[2],每一个匹配的事件,执行引擎获取事件的price的属性,维护一个求和后的总值sum,第3列维护事件的总的数量count。
- 向量中的第4列保存状态a[i]的最后一个匹配事件的volume属性的值,用来计算跟状态b相关联的边的条件。
对于每一个实例,都有自己的一个动态数据数据结构,用来保存计算过程中所需要的中间数据。图5(b)和图5(c)分别表示了图3中实例、在读取到之后的中间数据computation state。
新事件的处理
当新的事件到来时,每一个实例执行一系列的动作。
首先在实例所处的当前状态上,使用向量保存的中间数据和开始时间,检查是否该状态相关联的边的条件。每个状态可能有多个边,在本例中a[i]包含了take、ignore和proceed 边,计算后每条边都可能条件都可能为True。
如果没有任何1条边为True,则马上终匹配失败,马上终止该实例,通常是不满足时间约束或者相邻策略。
如果多于1条边为True,则该实例会通过复制生成1个或2个子实例。然后各(分裂前的实例和新创建的子实例)根据各自的条件进行跳转。如果满足了take或者begin边的条件,需要将满足匹配条件的事件写入到缓冲区,更新中间数据computation state。
合并等价的实例
在上节基本算法中,不同的实例相互独立执行,这对于性能也存在浪费,为了提升效率,本节中将尝试提出一种方法,来识别不同的实例之间的重叠,避免重复计算。
如果两个实例,尽管历史数据不同,但是在当前具有相同的中间数据computation state,他们将会匹配相同的事件直到结束。在这种情况下,我们认为两个实例等价。
图6 合并运行的示例.png图6 实例合并示例
如图6(a)所示,将Query3中的聚合函数替换为,对应的中间数据computation state如图6(b)所示。第2列加粗显示,用来计算状态a[i]上的。
图6(c)、(d)显示了读取了事件之后的两个实例,事件流与图3中一致,两个实例都处于状态a[i],具有相同向量。后续的事件处理相同,所以可以被合并。
合并算法的概述
- 检测两个实例是否等价
- 可能会在起始状态之后的任何一个状态上进入等价。向量完全一样的要求太严格,因为向量中的前边状态使用的中间数据,在后续计算中不再需要了。换句话说,只要在状态和后续状态中需要的数据数据的值一样即可认为是向量是等价的。
- 为了实现向量的等价判断,我们引入了一个新的静态字段,如图6(b)所示,包含了一组bit标识位用来标记向量。每一个标识位对应于一个状态,该标识位用来表示该中间结果列是否与当前状态的计算相关。在实际运行的时候,可以根据该标识位获得( )与当前状态相关的所有中间结果值,记为,如果两个实例的相同则可以进行实例的合并。
- 创建合并的实例
- 中间数据将包含所有版本号的数据、起始时间(此句话待研究)。合并的实例的版本号将被缓存起来,留待后续匹配结果构建阶段使用。要做到这一点,必须要保证能够区分合并前实例在匹配缓冲区的指针引用,能够正确的取回匹配结果。同样还需要跟踪合并的实例的起始时间,以便于能够处理超时的实例(之前提到过,对于超过指定窗口长度的匹配需要中止匹配)。
- 合并的实例可能会有不同的起始时间,超时时间也不尽相同,执行过程中,可能存在一个实例超时,另外的实例还在执行的情况。为了能够使合并的实例能够尽快的处理完毕,合并实例的起始时间设定为被合并实例中最大的时间。
- 例如实例1起始时间为1,实例2起始时间为2,那么合并之后的实例的起始时间为2。
- 这样就可以保证当合并实例超时中止的时候,被合并实例也一定是超时的。
- 最后,当合并实例到达结束状态的时候,只有未超时的被合并实例会触发匹配结果构建。
回溯算法
回溯算法的灵感来自于字符串模式匹配的实现。算法的基本思想如下:
在同一时刻,每个分区只处理一个实例,叫做该分区的孤子实例。孤子实例持续运行,直到成功的产生匹配结果或者匹配失败,即便是在处理过程中,由于不确定性导致分裂,而产生了其他实例,这些实例会也会推迟运行。
当孤子实例匹配失败,然后向前追溯该分区其他推迟运行的实例。如果孤子实例匹配成功,我们可以根据输出格式决定是否向前追溯:
- 如果输出模式是输出所有的匹配结果,则向前追溯
- 如果只有只输出非重叠的结果,则无需追溯。
我们调整了§4.2.1中描述的基本算法的实现来实现回溯算法。
图7 回溯算法示例在图7的示例中,表示实例,表示状态 ,表示发生在时间的事件。下边是对回溯算法的描述,事件流包含了,,,,,。
- 事件到来,在状态创建一个实例。变成一个孤子实例。
- 在上导致了不确定性,存在两条可能的前进的边。所以创建实例,将、当前状态的ID和当前事件的ID一起添加到一个保存推迟运行的实例的堆栈中。继续作为孤子实例运行,因为可以推进到下一个状态,并没有失败或者匹配成功。
- 继续处理,直到当到达时,在状态匹配失败。
- 向后回溯,从堆栈中弹出最新创建的实例,在本例中是。把当做新的孤子实例,从状态开始执行,从事件开始读取事件流。
- 当到达时,匹配成功,输出匹配结果。
如果把在运行过程中创建的实例看作一棵树,回溯算法使用深度优先的遍历,依次执行实例。回溯算法一次处理一个实例,直到该实例匹配成功或者失败,才会开始执行最新创建的实例。基本算法不同,基本算法采用广度优先,创建和执行所有的状态机实例。
内存管理
文章前边提出了几个不同的数据结构(带版本的匹配缓冲区、中间数据computation state等),其所占用的空间与输入事件流之间按比例增长。因为事件流是无限的,随着时间推移保持性能的稳定一致,只能通过主动维护这些数据结构来实现。为此,需要不断的清理数据并尽可能的重用过期数据的存储空间。
在运行期间,可以是用时间窗口主动清理两个关键的数据结构:
- 匹配缓冲区
- 当事件被处理完毕之后,使用该事件的时间戳和时间窗口来确定位于窗口之外的最大时间戳,叫做清理时间戳。使用清理时间戳在匹配缓冲区的每个堆栈区域进行二分查找。通过二分查找确定确定最近的位于时间窗口之外的事件,从匹配缓冲区的堆栈中清理掉位于该时间戳和之前的所有事件。类似的,使用该时间戳,从全局的事件队列中清理掉事件。
- 重用频繁初始化的数据结构
- 当从匹配缓冲区中清除对象时,我们将它们添加到池中。 当请求新的堆栈对象时,我们首先尝试使用池中的任何可用对象,并仅在池为空时创建新的对象实例。 这样回收堆栈对象限制了对象实例化的数量并且减少了垃圾回收频率。
- 类似地,为实例维护一个池,即保存中间状态数据的computation state。 每当匹配完成或失败时,我们将其添加到池中以便于重用。
关于的核心介绍到此结束。
网友评论