那这对于解决当前机器学习缺少解释性的问题,又什么本质的改变了?这里列出Judea Pearl的八条回答:
首先是让机器做的假设以人类容易理解的方式(因果图)呈现出来,从而让模型更加透明,也让测试模型的推论的后人能够更精准的去检验模型的鲁棒性。可以说只有能够解释清楚自己每一步的推理的逻辑,模型才算具有了可证伪性,否则即使有一个不符合模型预测的事件,由于不确定其和模型的因果假设有什么关系,又该怎么区分这究竟是应该被去除的噪音还是能推翻整个认知模型的反例。
第二点是通过因果推断,去除混杂因素的影响。当前的机器学习,重要先进性数据清洗,特征提取,往往花在特征工程上的时间占到了全流程的大头。有了因果推断,就不必人,来根据常识去掉那些可能影响相关性的混杂因素,从而在更复杂的坏境下,做到端对端的学习。这使得模型能够超越建模者的认知局限,从而模拟真实坏境更复杂的相互作用。
第三点是算法化的回答反事实的问题。人类能够区分出充分条件和必要条件,能区分cause of effect与effect of cause,例如小明酒后游泳溺水而死,游戏是小明死亡的必要而不是充分条件,要回答这样的问题,就需要进行反事实的思考,去幻想如果小明没有游泳会怎样,如果游泳时小明没有喝酒会怎样。如果机器能够做这样的思考,那AI思考的模块化程度就会进一步提高,需要的训练数据也会减少,对于跨领域的迁移学习也会有所助力。
第四个助力是区分直接和间接的诱因,如果只有关联分析,那在较长的时间尺度上,就会面临如何区分是否之前的决定带来了奖励的问题,但如果能够将因果关系描述出来,并且根据数据来评价每一条因果链条的坚固程度,那就能够去解决强化学习中在较长的时间尺度上,该如何分配奖励的问题。区分了直接的诱因与通过第三方作用间接的影响,就能够判定数据中那些异常点处在间接影响的链条上,受到未知因素的影响,属于噪音,而对于处于直接因果链条上的,则异常不应该被视作是噪音,而是可以证伪模型的“黑天鹅”。
第五个助力是模型具有跨领域的适用性,还能够通过其他领域来验证该模型的鲁棒性。如果一个通过强化学习的智能体在一种游戏中表现优异,那预期换一个游戏,该模型也不会表现的太差,这种能力被称为domain adaptation,人类就有这个能力,例如dota玩的好的人,玩英雄联盟也不差。如果智能体是通过因果推理,来决定下一回合的policy,那这个思考过程就更像人类做决定时的所思所想,由此类比推出,智能体也会具有更好的domain adaptation。
第六个助力避免sampling bias,正如人类的认知偏见会让人丢掉那些对支持自己结论不适合的数据,人类在对机器建模时,也会展现出类似的认知偏见。如果机器具有了公理化的因果推理,那通过反事实的问题,就可以指出人类可能受到了采样偏见的影响。这指出了人机协作的新的可能性,不是机器只懂得找出相关性,从而指数级的放大人的认知偏见,而是机器根据人对世界的建模,去帮助人做人类不擅长的用数据找出偏见,从而带来一个更公平的模型。
第七个助力是通过因果模型,来判定数据集中是否存在数据缺失的问题。例如建模者以为女性不擅长数学,那用来训练该录取那个学生的分类器时女性申请者的样本就会很少,从而使得基于统计相关的模型预测女生不应该录取到数理相关的专业。但对于基于因果判定的模型,那只要对世界的假设中包含性别会影响是否报名数理相关专业这个因果联系,那模型就能够根据数据判定出这里存在着可能的数据缺失,从而提醒建模者注意。
第八个助力是去发现因果关系,例如遗传学中的孟德尔随机,就是利用了基因在有性生殖中自然会发生重组,来区别到底基因的差距与人身体表现出来的胖瘦高矮这样的表型到底是因果性还是相关性。现实中存在着诸多类似孟德尔随机的自然形成的与随机双盲实验等价的场景,通过让模型具有因果推断能力,就能够发现未知的因果关系。
网友评论