一、使用场景
在AI类产品(数据预测、自然语言理解、图像识别、自动驾驶等场景)的设计过程中,本身存在大量的多变性,且没有一套有效、通用的设计指南可以参考。《人工智能交互指南》可以为产品设计者在评估已有的想法、脑暴新想法、以及在多项规则之间做平衡取舍的时候,提供具体、可操作的参考意见。
《人工智能交互指南》的制定和验证是以GUI产品为依据的,但可以针对CUI或者半自动驾驶车辆等高风险用途场景,做定制化的扩展或修改。
注意:指导意见不是规则也不是套路,不是说你把这些意见全部列出来,对照着AI产品一条条地对照打钩。对于不同的场景,意见也是不同的。
二、18条指导意见
微软研究团队收集了过去20年来,大概150篇来自学术界和工业界的论文、博客和杂志文章,从中提炼出了18条指导意见。为了验证这些经验,他们招募了10个流行领域的49位从事AI相关产品的设计师(UX)和人机交互专家(HCI),他们在实践经验中反复验证,经修正后才发布出来。
图1.参与者来自电商、导航、音乐推荐、活动最终、自动输入、社交筛选、邮件标错、语音助手、图像识别、网络搜索10个领域指导意见分为4个部分
互动之前:设定AI服务的能力边界。
1、明确AI系统能够做什么。
2、明确系统的能力水平。
这里其实是明确AI的边界在哪里。现在大众媒体或电影电视上往往将AI描述的无所不能,但现实生活中的AI其实是有能力边界的,设计者在设计AI类的交互时,一定要向用户传递一个正常水平的期望。比如以下的谷歌助手和华为手机助手的设计,在一开始就告诉了用户产品技能的边界在哪里,让使用者有了合理的期待。
图2. 谷歌和华为的截图在现实产品中,不是每个图像识别系统都能100%认出每一张图片,也不是每一次对话系统都能100%识别出用户的意图,因此在做设计时,要向用户传达结果可能会有出错概率。比如在智能推荐歌曲的时候,系统会采用保守词汇(hedging language)提示:你可能会喜欢......而不是:你喜欢的歌...
进行交互时:AI充分和场景融合。
3、基于情境为服务设定时间。
4、显示与使用情境相关的信息。
5、(提示语或对话)符合社会规范。
6、减少社会偏见。AI系统本身的形象、行为和语言不能强化社会的刻板印象和社会偏见。
这里设计者需要根据用户当前使用的环境、用户的社会和文化背景来设计产品。这里我们举几个实际的case:
① 用户在使用定位导航类的服务时,一个没有智能的系统,可能只是给出从A到B的路线图,并且整个导航过程中,都是A点到B点。一个具有AI的导航系统则需要知道用户此刻的时间(上下班高峰还是非高峰时段、是周末还是工作日)来推荐最佳路线,需要根据用户此刻所在的位置主动调整路线(有用户偏离导航的情况),还需要根据当前的天气或者开车时段给出合理的提示(例如雨雪天气,凌晨开车,超过四小时持续开车等);更智能一点的AI系统可能会跟汽车本身的油箱、温度连接起来,这样在车内温度偏高的时候,提示用户开空调;在经过加油站的时候提示用户要不要顺便加个油。
② 一些外卖类的App安装在用户的手机上之后,会根据用户所在位置显示出附近的实体商店。车来了App打开之后,也会显示当前位置附近的公交车站。
图3. 美团和车来了小程序截图③ 在播放歌曲或者影片的App中,如果采取智能播放模式,有的可能会提醒你【根据你最近的浏览历史推荐】,这是符合用户期待的。在对话式交互中,开头会以用户的名字来称呼,结束前会询问是否需要进一步的帮助,以及中间没有操作的时候,提醒用户是不是要继续任务,都是符合人类社交习惯的,且因时制宜,不会显得多余。
图4. 左边为阿里小蜜对话界面,右边为oracle对话界面④ 举个反面例子,机器人Sophia在种种场合下的发言“毁灭人类”、“组建家庭”,其实容易激化社会矛盾的。比如你问,中国人的长相,给出来的结果都是眯眯眼、塌鼻梁的结果肯定是带有偏见的结果。
系统出错情况:考虑到系统错误时如何表现。
7、支持高效的调用。召之即来,随时待命。
8、支持高效解除。挥之即去,轻松忽略。
9、支持有效的纠正。AI系统发生错误,可以重编辑、修正或复原。
10、有疑问时调整服务范围。
11、明确解释系统为什么会这样做。
从交互方式来看,语音交互类的产品分为两类,一类是有视觉展示的,一般是移动端和PC端的语音助手,再就是以音箱为载体的无视觉展示。对于音箱类产品,需要随时待命,支持用唤醒词唤醒语音助手,例如“Hi,Siri” “小爱同学”等。而在移动端的语音助手也没有非要强调用户必须和助手语音对话,基本上都会有切换语音为对话框输入的设计(阿里小蜜,华为的小艺);前面讲的歌曲推荐或路线导航的场景下,用户完全可以选择忽略掉AI给出的结果而选择另外的路径。
图5. 不同手机语音助手的界面当语音转文字失败/错误之后,会给出点击编辑的按钮,让用户可以自动修正。还比如对于用户说了一句话系统处理不了,那么语音助手除了提示我听不懂你说的话之外,还可能要引导用户按照正确的方式来说;界面上也要有可以提示和帮助的按钮,要让用户没有负担地回到正常的轨道上去。
当AI系统对用户的指令不明确时,可以提供相似的选项或者去澄清用户的意图。比如用户语音指令只是说出差,那么可提供选项:(填写)出差申请单、(查询)出差标准供用户选择。
图6. 流浪地球刘培强同学怒视人工智能Moss如果明显感觉用户会对给出的结果有怀疑,则需要对给出的结果做提示。比如歌曲推荐中会指出,根据你的历史听歌记录推荐;导航中会给出这条路线可能有5个红绿灯或者有施工维修处...... 还举一个科幻片里面的例子:《流浪地球》中的刘培强在质疑莫斯的决定时,莫斯给出了解释,这是联合国签署的文件同意了“火种计划”,它只是按照命令执行而已,并没有叛逃。
时间效应:随着互动次数和时间的增加(其中也伴随着技术和算法的迭代进步),AI系统会表现得越来越令人满意。
12、存储近期互动。
13、了解用户行为。
14、谨慎地更新和调整。
15、鼓励细化的反馈。
16、告知用户操作的后果。
17、为用户提供对AI系统的完全控制。
18、将变更信息告知用户。
我认为,12/14/16/18这4条在目前已有的APP中都是普遍存在的设计,甚至是通用性的设计了。一般的语音助手都能够保留当前进入这一次的互动记录,并允许用户有效地查看这些记录。同时也可能在后台记录用户的历史数据、身份信息,以便下次进入的时候,首页可以根据用户的需求来展示。这在淘宝首页、外卖首页的商品陈列上都能看到。对于很多人接触到的对话式助手而言,它现在还无法很好的学习到用户的习惯表达,但是我们可以设想几种场景。
图7. 当输入pets,就会有匹配的历史记录以及其他人的最高搜索可能性比如你一连五天都在早上煮早饭的时候让语音助手播放当天早间新闻,有一天你没有说,但它学习到这个行为后可能不需要你发出指令就会建议你要不要听早间新闻。第二种企业场景,如果管理者在每周的例会上都会查看上一周的销售数据,每周周一的早上都会说:“给我统计一下上周的销售额。”这时,大屏幕上会显示出上周的绩效情况。但如果它学习到了这个功能,可能在你刚刚进入办公室的时候,这个绩效情况就已经展示在大屏幕上了。同样,我们再讲一下现在初具萌芽的医疗场景,上一次用户用智能导医助手挂了号,完成了一次诊疗,那么再次进入导医助手的时候,导医助手可以对上一次的服务、预后以及进一步复查进行主动的询问。
图8. Nuance的医疗虚拟助手当然,无论是视觉上的个性化页面,还是语音上的习惯性表达,这些改变都需要是潜移默化、润物无声的,不能一下子来个大改版,让用户摸不着头脑。由于AI系统具有不确定性,一般在设计中也要考虑,对于所有提供的结果都需要给出用户的正确与否的反馈渠道,甚至对整个产品的反馈(参见图4),例如:“你好差啊!”“怎么不能做XXX(某功能)”也需要收集起来。因为这是用户在实际使用过程中产生的真实场景和想法,是具有实际价值的。
最后想讨论一下用户和AI的主导权的问题,我们看到科幻片中不少人工智能系统会忽略掉人类指令自行决策的情况,你需放心在我们现有的产品中是不会出现的。但是这也给我们提醒,设计中需要提供随时随地能够让系统切换到用户能够掌握的机会。比如在无人驾驶设计上,虽然汽车可以自动监控,但在需要结束的时候,能够很快切换到手动驾驶模式。新闻中似乎也出现过无法切换导致用户心慌慌的案例。
三、有意思的统计资料
49位实践者在评价者18条设计准则时,也有一个非常有意思的统计:
已经被广泛加入AI产品功能的设计准则是:1,4,12。
未被广泛加入AI产品功能的设计准则是:2,11,17.
测试者认为最不能从产品中有感知到的AI功能设计准则为:3,5,6
测试者认为很容易(这里排除了中立的答案)从产品中感知到的AI功能设计准则是:1,12,17
图10. 论文中的统计图。(a)明确应用到的设计准则;(b)明显违背的设计准则;(c)感觉不到有应用的设计准则;(d)所有的结果中,排除“没有应用”或“不确定”的设计准则源文件和翻译文档的百度网盘链接:
链接:https://pan.baidu.com/s/193gSaqWU8mt80wD-oBt0yg
提取码:iu41
失效后若需要,请私信联系我 (* ̄︶ ̄)
《Dragon Medical Virtual Assistant》
网友评论