近几年AI场景越来越多的落地,但受限于AI技术发展程度和社会伦理问题,AI并没有干掉所有场景的工作岗位,而是进入一种人机协同的状态。在人机协同的大时代背景下,AI的可解释性问题变得越来越尖锐。本篇聊聊关于AI产品可解释性的问题。
可解释需求
虽然AI行业烧钱的问题被诟病很多,但相比5年前,如今AI确实越来越多的在社会各个层面落地。
之前文章《人工智能大会后,谈谈对智能汽车的认知》谈到过未来会进入自动驾驶时代,无论是L4以下还是L4以上的自动驾驶,都需要自动驾驶系统替代人类做部分或全部的驾驶决策。而自动驾驶能够被大众和社会接受,前提需要在出现问题或人类想了解决策逻辑时,自动驾驶系统能给出合理解释,而非完全把命运交给不可解释的黑盒算法。
其他场景也存在类似问题。例如前几年做智能推荐产品,主要聚焦给B端客户提供推荐系统服务,交付以CTR或CVR指标提升为准。而在实际交付中,指标虽然提升了,但客户侧会反馈到单个客户上推荐结果不合理。
在当时的话语体系下,更多是给客户讲看总指标,追求全局最优解,而非每个客户最优解。显然站在C端用户的视角,这种解释是不够的。而且在推荐系统实现过程中,确实会存在一些策略不那么个性化,或者存在少数服从多数的建模逻辑,行为少的用户推荐结果会被行为多的用户影响。
客户或用户需要知道算法到底如何做出决策,无论是向上汇报还是对终端用户解释,都不算过分的要求。并且随着AI落地场景越来越多,可解释性问题会越来越尖锐。
可解释性难点
AI可解释性需求现实存在,在解决AI可解释性的方案里却存在一定的难点。
近年来深度学习被广泛应用,算法工程师可以无脑使用深度学习追求一个好的指标,但却使结果变得不可解释。为什么效果好,没有人知道。
另外的是有些可解释的模型,即便将决策原因暴露给客户或用户,用户也不一定买帐,因为现在AI终究还是逃不过统计学逻辑,即按照过去数据对未来做预测,预测的准确性是有概率的,并非能百分百准确。这种情况下,可解释性只是直接的目标,准才是根本的目标。
解决方案
解决可解释性问题,可能有三个解决问题的方向。
方向之一是,回到最初的问题,场景是否真的适合采用AI,是否可以直接上规则。在之前工作中,遇到一些银行和券商客户,数据量有限,同时关注可解释性,也想做推荐,但不适合传统的AI推荐。于是构建了一款规则引擎产品,可手动给不同人群配置不同推荐规则,于是两全其美优雅的解决了问题。
方向之二是,将需要解释的内容,适当做产品化。例如之前做新闻客户端时,将召回策略中基于内容标签、作者等召回源,作为推荐缘由直接展示在用户端,用户可以选择对某标签的不感兴趣。同时解决推荐原因和提升推荐效果的问题。
方向之三是,对于那些不可解释的模型,需要推进技术上寻求挖掘可解释性的方案,黑盒模型可解释性目前也是业界比较前沿的领域,如果能有一些突破,再去做产品化便能将AI落地速度推进一大步。
关于作者:
小乐帝,一线AI产品经理、简书科技优秀作者、产品经理读书会创始人。
「产品经理读书会」
专注于爱读书爱思考的产品人提供读书推荐、产品思考、以书会友的环境
网友评论