规则是高级思维的基础
高层意识以规则为基础。这些规则表达了当前处于的节点,以及根据输入情况应该跳转到哪个下节点。这些规则可以认为是一个复杂的图网络,在图中进行搜索的过程称之为思索,而筛选出的路径就是思路。思路是一个链式结构。
我们可以先认为这些规则是静态的,并且是可以教授出来的,那么我们的核心并不是学习这些规则,而是把静态的预先设定的规则与实际变化多样的输入相连接的问题,也就是适配层问题。这些静态的定制化规则也有可能是从实际中逐渐学习和锻炼出来的。高层规则本身是一个柔性系统,它能适配灵活多变的输入,进行可塑性调整,因此高层也具有灵活性和不确定性。这点与计算机程序非常不一样。但是这个学习和提炼的过程实际上是非常漫长且不确定的。因此,我们不妨定制一些静态规则,这些规则可以预编译的,可以是教科书教条似的,但是如何让这些静态规则适用于非常灵活的输入,是其关键所在。
感知到的信息和高层规则之间缺乏协同工作机制,这个机制是说如何让输入的感知被认为是高层中对应节点的信息。因此引入了映射层。映射层可以将非常灵活的输入与固定的规则相连接,并且可以快速实时更改。我们可以采用短时记忆机制实现,短时记忆可以有效的对规则进行重定义和重连接。规则连接层也具有信息筛选作用,它根据高层需要,滤除不需要的信息,将输入信息结构化,实现信息的有效筛选和适配。
主体意识是一种由节点组成的链条,这个链条中的节点(状态)可以接受外界的输入并决定下一步应该跳转到哪个状态,跳转规则是输入的函数。链条是从一个复杂的图中最终决定出来的通路。
高层规则对输入信息具有筛选作用,包括信息的重要性判断与选择性接收,选择性记忆。另外,基于意识,通过集中控制,每个时间只做一个思考过程,可有效屏蔽外界干扰。
图1 . 抽象规则与非结构化输入信息的关系思考的定义
基于规则,我们可以实现的"思考"包括以下几个方面。
逻辑推理:可以支持多步的逻辑推理和规则推理
抽象与映射:将各种自然非结构化输入转换为抽象的结构化的表达,相应的,将推理后的结果映射到具体事物
逻辑的可学习性:逻辑规则可以学习,最初通过组合旧的规则形成新的规则,之后逐渐强化新的规则。
预测-验证机制与意外:主动寻找可以验证主观判断的客观事物,预测并验证是否符合预测,当接收到意外时,主动放弃预测过程并转向如何处理意外。
基于经验的串行的工作机制
例:类脑图像识别与深度学习、计算机图像识别的区别
计算机的图像识别采用特定的分立规则对图像进行适配,规则独立存储。
ANN网络就是一个采用同一个记忆体(多层CNN)存储多个非相关信息(如1000分类)的系统,通过大规模训练实现。而基于经验的串行识别方法需要先假定预期判别事物的类型,并从长期记忆中提取这个类型所需的特征到短期记忆,再放入特征适配器进行识别。这样做可以有效处理超大规模记忆,在超大数据样本下确定分类。而传统CNN通过并行全部运算所有类比的方式,只能实现千级别的分类。
图2.基于规则的串行图像分类方法基于预测-验证机制的物体识别过程
人在识别物体的时候是通过先猜测,之后收集图像中的特征来验证自己的猜测。猜测往往依靠的是以前接收到的特征和推理规则决定的。
检测:基于线索(筛选的输入特征)和状态,取出一个经验,代表当前的“预测”。比较当前输入和“预测”之间的相似性,并且确定线索是否与预测保持一致。 收集足够的线索来证明预测结果后,就会做出决定。如果没有收集到足够的线索,或者线索与预测相矛盾,目前的线索就会转移。
简要描述为:
Prediction(t) = Guess(Feature(t-k,k=1...N), InferenceRuleChain)
ValidateProb(t) = Consistent(Prediction(t), Feature(t))
InferenceRuleChain = Branch1 when ValidateProb(t)> thrd. else Brance 2
FinalDecision = Conclusion(ValidateProb(t+k, k = 1 ... N))
在图像识别时,深度学习方法无法有效的利用帧间信息,无法有效利用周边环境暗示,导致判别不稳定不准确。而由于猜测可以有效利用线索链,使得环境上下文,推理等部分可以有效的加入到图像识别的过程。
规则的学习
由于学习的渐进性,规则需要有不断适应新环境的要求,以及创造新规则的可能性。为了达到这两点,定义了六个更新方法:
a拼接:将两个规则链首尾连接到一起,形成一个更长的规则链;
b局部修正:根据环境的改变,对一个规则链的一部分进行更新;
c合并:对两个或多个非常相近的规则链按照使用频率合并成一个新规则链
d捷径:对经常使用的规则,通过捷径实现跳步;
e选择分支:根据输入不同,选择不同的下一个状态;
f将原有规则拆分成若干个小规则独立使用;
这些更新方法可以组合。
图 3. 规则的更新人往往学习新规则时,通过局部修正形成一个规则支路,根据输入的不同可以选择原规则还是新的(支路)规则,如果新规则不被经常使用,则可能会合并到原规则中。否则,新规则连接会越来越强,原规则会越来越弱,从而实现了新规则代替旧规则。
如果两个规则都会被经常调用,且触发逻辑不同,则会自动建立选择机制。如果两个规则都被调用但触发逻辑相同,则会产生犹豫逻辑(会调用更多的附加规则解除犹豫)。如果两个规则非常像,则随着时间改变会被归并为一个规则。
如果一个规则经常被使用,且只有某些步骤是有输出的,那么中间的不产生输出的步骤可以被跳过,这时会有捷径跳过中间的步骤。
规则具有可拆解性,即一个复杂的规则链可以拆分成几个简单的规则链。
在进行规则推理时,短期记忆会根据时间顺序保留若干推理节点,如果推理失败,则可以从推理节点重新推理。尤其对于具有分支的节点,经常会被保留,这样推理失败会使此分支的信任度下降,使得下次推理时可以绕开不成功的节点。
网友评论