近年来,可解释的人工智能(Explainable AI)逐渐成为学界讨论的热门话题。话题的中心是可解释性,这表明人们开始不满足人工智能的应用,而开始追问人工智能为什么那么成功,或者为什么在某些场景下做出错误决策。随着人工智能的广泛应用,理解人工智能的决策过程越发重要。
如果将人工智能应用到一些敏感领域,例如,辅助医疗、国家决策制定、金融投资、智能驾驶,只有理解人工智能的决策过程,人们才会信任人工智能,否则人与人工智能将陷入猜忌和敌对关系。
从关注应用到关注应用背后的具体运作机制,这是一种从技术思维向科学思维的转变。然而,我们回顾人类对世界的理解模式演变历程,发现这是一种非常独特的转变过程。
从十六十七近代科学革命以来,理解总是先于应用。而在这之前,虽然技术比科学出现得更早,但是那时的技术复杂程度绝没有超出人们所能理解的程度,即使是复杂的技术也是由多个功能清楚的简单装置组合的产物。所以在深度学习出现之前,人类还没有遇到过有效但不知道为什么有效的技术。这就为人工智能的进一步和深一步应用埋下了祸根。
为什么我们那么在意人工智能的可解释性呢?从实践应用角度,这关乎我们了解这一技术的程度问题,而从人性角度,这关乎人与技术的信任问题。在技术伦理领域,有一个传统的话题,那就是技术是善的还是恶。但是,对于人工智能,人们甚至没有能力谈论它的善恶,因为人们压根不了解人工智能具体的决策过程。如果我们面对的是一种全新的文明,不知道他们的行为规范,更不知道他们的决策过程,那么讨论他们来到地球是与人类做朋友还是侵占地球,这完全是一种奢望。现在的人工智能就是我们所面对的全新的文明。
而之所以我们关注可解释性,则是来自人性对确定性的渴望。一直以来,人类都在寻找关于世界和自我的理解,也正是这种理解的冲动才成为科学起源的基础。神话、巫术、宗教、科学,它们本质上都是解释系统。
为什么人类会有解释冲动呢?有研究儿童认知的学者认为人类就是一种解释机器,或者人类天然具有解释器官,因此从演化的角度可以说明解释对人类的生存价值。当然最初的解释模式不可能像现在一样是一套语言表证系统,但是在前语言时期的解释是一种操作主义和基于共变关系的因果理解,而解释系统一开始就是原因。
因此,寻找解释就是寻求原因。而知道原因能够极大的提升人类祖先的生存优势。一旦掌握原因(不管是真的还是虚假的原因),人类就可以提前模拟自己的操作所带来的结果,也可以设想出现原因之后的世界状态的变化,从而能够更好地谋篇布局,适应自然。
这种对因果关系的诉求在意识层面就表现为对确定性的渴望。凡事问个“为什么”,问的是现象背后的实在世界的状态。现如今,人们关注可解释的人工智能实则还是对确定性的渴望。只有说得清、道得明的技术,人们才能信得过,因为这满足了人们对确定性的诉求。
网友评论