美文网首页嵌牛IT观察
机器学习的可解释性

机器学习的可解释性

作者: d5cc63d9e177 | 来源:发表于2020-12-27 20:55 被阅读0次

姓名:韩宜真

学号:17020120095

转载自:https://mp.weixin.qq.com/s/g9GddOQdMI8lAKnGlTR-Fw

【嵌牛导读】本文总结和分析各种机器学习可解释技术,并讨论了机器学习可解释方法面临的挑战和机遇以及未来的可能发展方向。

【嵌牛鼻子】可解释性 神经网络 黑盒子 模仿者模

【嵌牛提问】机器学习可解释技术是什么?

【嵌牛正文】

近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习的可解释性依旧是个难题.通过算法训练出的模型被看作成黑盒子,严重阻碍了机器学习在某些特定领域的使用,譬如医学、金融等领域.  目前针对机器学习的可解释性综述性的工作极少,因此,将现有的可解释方法进行归类描述和分析比较,一方面对可解释性的定义、度量进行阐述,另一方面针对可解释对象的不同,从模型的解释、预测结果的解释和模仿者模型的解释3个方面,总结和分析各种机器学习可解释技术,并讨论了机器学习可解释方法面临的挑战和机遇以及未来的可能发展方向.

关键词 机器学习;可解释性;神经网络;黑盒子;模仿者模型

纵观机器学习的历史发展进程,其最初的目标是从一系列数据中寻找出可以解释的知识,因而在追求算法性能的同时,也很注重算法的可解释性.典型的代表譬如线性感知机、决策树、k近邻算法等.进入20世纪80年代之后,伴随神经网络的复苏,机器学习算法在设计时开始放弃可解释性这一要求,强调提高算法泛化的性能.神经网络的激活函数的选择不再局限于线性函数,而采用非线性的譬如Sigmoid,tanh,Softmax,Relu等函数,一方面其表示能力大幅度提高,另一方面,随着其模型复杂度的增加,算法的可解释性就更差.

然而,机器学习解释技术具有巨大的潜在应用空间.譬如科学家在知识发现的过程中,可解释的机器学习系统可以帮助他们更好地理解输出的知识,并寻找各种因素之间的相关性;对于一些复杂任务的端到端系统,几乎无法完全测试,也无法创建系统可能失败的完整场景列表,人类无法枚举出所有可能出现的计算上或者逻辑上的不可行输出,系统的可解释性对于系统的理解则至关重要;需要防范可能产生某些歧视的场景,即使我们有意识将某些特定的受保护类编码到系统中,也仍然存在考虑欠缺的先验偏见,譬如种族歧视[1-3]、性别歧视等.

对机器学习的可解释性需求不仅仅来源于上述的需求,同时还来源于法律法规.欧盟于2018年5月生效的GDPR(General Data Protection Regulation)中有条例明确规定,当机器针对某个个体作出决定时,该决定必须符合一定要求的可解释性.

NIPS2017的工作组曾针对“可解释性在机器学习中是否必要”这一问题展开激烈的讨论[4].并非所有的机器学习系统都需要可解释性,譬如邮政编码分类、航空器防撞系统等都是在没有人类干预的情况下运行,不需要解释.但是在医疗保健、金融等行业而言,模型的可解释性不仅重要而且非常必要.譬如在医疗保健方面,护理人员、医生和临床专家都依赖于新的医疗技术来帮助他们监控和决策患者护理,一个良好的可解释性模型被证明可以提高临床工作人员的解决问题的能力,从而提高患者护理质量[5-7].通常对于系统出现不可接受的结果且无法造成重大后果的情况下,或者在实际应用中,人们已经充分地研究和验证出现的问题,即使系统表现不太完美,人们也愿意相信系统的决定.在类似的场景下,对可解释性是没有需求的.

近几年来针对机器学习的可解释性综述性的工作陆续出现,每个学者从不同的研究角度和侧重点进行概述说明.

Miller[8]从哲学、心理学和认知科学的角度对解释的定义、生成、选择、评估和呈现给予说明,展现人们在研究机器学习可解释过程中的某种认知偏见和社会期望.Zhou等人[9]认为机器学习缺乏解释既是实际问题也是道德问题,根据解释的概念和黑盒子系统的类型不同,对目前的解释技术进行了分类总结.

Gilpin等人[10]重点描述了可解释技术在人机交互领域(human computer interaction, HCI)、黑盒模型和其他领域的应用说明.Carvalho等人[11]阐述可解释性问题的重要性,并粗粒度地给出3种体系的分类归纳:Pre-Model VS In-Model VS Post-Model、内在(intrinsic)VS Hoc以及特异性模型(model-specific)VS不可知模型(model-agnostic).Brian等人[12]提出可解释地预测与可解释模型之间的区别,前者侧重于解释模型预测的结果,通常以个体特征的贡献角度来诠释,而后者从模型本身出发进行解释.还有部分的研究者关注特定研究领域的可解释性.譬如:Zhang等人[13]聚焦卷积神经网络(convolutional neural networks, CNNs)的可解释研究工作.Tjoa等人[14]则关注医疗领域的可解释性工作.纪守领等人[15]侧重可解释技术的应用和安全领域的研究工作.

本文立足于机器学习的可解释技术,借鉴和扩展Brian[12]提出的分类框架,对可解释技术的最新研究进展进行综述.一方面对可解释性的定义、度量进行阐述,另一方面针对可解释对象的不同,从模型的解释、预测结果的解释和模仿者模型3个方面,总结和分析各种机器学习可解释技术.

http://crad.ict.ac.cn/CN/10.7544/issn1000-1239.2020.20190456

相关文章

  • 引入业务先验约束的树模型(Python)

    一、模型解释性的意义 机器学习业务应用以输出决策判断为目标。可解释性是指人类能够理解决策原因的程度。机器学习模型的...

  • 建模后可解释性机器学习

    可解释性机器学习_Feature Importance、Permutation Importance、SHAP_L...

  • R语言机器学习与临床预测模型69--机器学习模型解释利器:SHA

    R小盐准备介绍R语言机器学习与预测模型的学习笔记, 快来收藏关注【科研私家菜】 01 机器学习的可解释性 对于集成...

  • 学习An Abstract Domain for Certify

    近期,将对机器学习的功能性性质,比如:可解释性(透明性),可验证性(可信的),可组合性(可拓展性),鲁棒性等等,在...

  • 机器学习的可解释性

    姓名:韩宜真 学号:17020120095 转载自:https://mp.weixin.qq.com/s/g9Gd...

  • 无标题文章

    机器学习中分类和预测算法的评估: 准确率速度强壮行可规模性可解释性 什么是决策树/判定树(decision tre...

  • 逻辑回归LR(Logistic Regression)原理以及代

    简介 逻辑回归应该算得上是机器学习领域必须掌握的经典算法之一,并且由于其简单有效、可并行化、可解释性强等优点,至今...

  • (2)决策树算法及其应用

    P:机器学习中分类和预测算法的评估: 准确率 速度 强壮性 可规模性 可解释性 1、什么是决策树/判定树(deci...

  • 5决策树

    0. 机器学习中分类和预测算法的评估: 准确率 速度 强壮行 可规模性 可解释性 1. 什么是决策树/判定树(de...

  • 决策树算法

    机器学习中分类和预测算法: 准确率、速度、强壮性、可规模性、可解释性特点 1、什么是决策树? 判定树为一个流程图的...

网友评论

    本文标题:机器学习的可解释性

    本文链接:https://www.haomeiwen.com/subject/fusunktx.html