人工智能 (AI) 经常在2017年成为科技的头条新闻。
多份报告都预测了该技术的未来和影响。专家也预测人工智能的发展和潜在的道德问题,会影响商业用户和消费者。
只有17%的研发人员在2017年参与了这个行业的研发,这意味着有3/4的人还没有使用人工智能或机器学习,也意味着行业增长的可持续性。
但是,同大多新兴领域一样,AI也会遇到一些成长中的难题等待我们去处理。
以下是2017年AI出现的10大失误案例,我们期待以后它能越来越聪明。

1. 谷歌翻译在“土耳其语→英语”翻译中显示出性别偏见
土耳其语有一个代词“o”,用于单数,不分性别,第三人称使用,没有直接对应的英文翻译。谷歌翻译并不知道如何处理这个问题,并使用了带性别偏见的算法来猜测相应的英文代词是“他”“她”还是“它”。
结果如下:在与“医生”或“努力工作”相联系的句子中将中性代词翻译成“他”,而跟“懒惰”和“护士”相关的翻译成“她”。
2.Facebook的机器人开发出自己的语言后被关闭
Facebook的研究人员发现,Alice和Bob两个人工智能聊天机器人已经开发出了自己的秘密语言,并且正在进行对话。虽然谈话记录看起来无害,但社交媒体巨头说这是一种速记形式的语言。他们的谈话被发现后,Alice和Bob被关闭了。

3.自动驾驶货车首次使用就出现事故
11月,拉斯维加斯推出一组自动驾驶货车,工作不到两小时就出现事故。实际情况是,自动驾驶货车没有出现故障,只是自驾车传感器发现有辆卡车司机突然倒车,就把车停了下来,警方后来认定这是由于人驾驶的卡车司机非法倒车所导致的停车事故。
来自该市的一份声明表示,如果人驾驶的卡车也有类似的传感器,停车事故就可以避免,但是如果自动驾驶汽车没有做出这样的举措,就会导致两车轻微碰撞。
4. Google Allo(一个智能通讯App)建议用男子包头巾表情代替枪支表情符号
Google Allo的智能回复功能可以做出快速、简单的回应。但记者在使用时发现,它给出的回复出现偏见迹象。
在Google Allo上,发送的三个枪支表情符之一成了一个戴头巾的人。在向Google反馈了这种情况后,他们做出道歉,并修改了Allo的算法。
5.面孔ID被面具欺骗

iPhone X发布一个星期,黑客就攻克了手机标志性的面部识别系统。越南安全公司的Bkav 用一个3D打印的面具欺骗了iPhone X,假装是电话的主人,并拨打电话。该公司表示,此面具售价约合150美元。
6.AI在肯塔基赛马的预测中失误
在2016年的赛马比赛中,AI猜中了所有的四名获胜者,但今年5月的肯塔基赛中,它却没能猜到获胜的那匹马。尽管它做的已经比人类好了很多,猜到了前四名中的两名(不过把这两名的顺序猜错了)。虽然赛马结果是不可预测的,但有些人对人工智能的预测依然抱有很高的期望。
7.Alexa把她的派对带到了德国
11月的一个晚上,德国警方闯入一间公寓,因为他们接到邻居的报警,抱怨大清早就被隔壁震耳欲聋的音乐吵醒。然而这不是一个聚会,而是亚马逊的Echo在主人外出时,随机播放了音乐。

8. 谷歌智能家居由于停电停机导致近100%故障率
几乎所有的谷歌智能家居设备在六月都面临了停电导致的停机问题,用户每次想与智能助手交流时,都收到错误报告信息。
9.谷歌的家用迷你设备窥视主人的秘密
十月份,安全研究人员发现一些谷歌家用迷你设备会悄悄打开,录制数千分钟主人的音频,自动传回谷歌。一位用户发现,当他看电视时,数字助理自动开启,并录制了他的声音;另一个用户发现,他的谷歌“我的活动”菜单下出现了自己的信息记录。
谷歌很快就发布了一个补丁来防止这个问题。
10. Facebook允许发布“仇视犹太人”的广告
Facebook AI驱动的自助服务平台可以购买广告位,发布广告,公司可以根据广告类别将信息发布给不同的人群。 一家新闻组织ProPublica在9月份报道中说,根据统计数据,这些广告中有种族主义或反犹太人的观点。
ProPublica还发现,广告栏一些类别中还有“如何焚烧犹太人”或“为什么犹太人会破坏世界历史”的信息。 Facebook表示,这些类别是由算法创建的,不喜欢看此类别的用户可以把它们删除或屏蔽掉。
原文链接:
https://www.techrepublic.com/article/the-10-biggest-ai-failures-of-2017/
作者:Olivia Krauth
来源:TechRepublic
智能观 编译
—完—
亲爱的朋友:
读到这篇文章,让我想到上周的一件事。
那天我边看节目边吃饭,正专心思考时,旁边的智能摄像头忽然大喊“我在呢”。吓了我一跳。
需要口令才能唤醒的摄像头,不知被节目中的哪句话唤醒了,让人哭笑不得。
你身边有这样的案例吗?欢迎给我们留言!
祝安!
智能观 一米
2018-1-10 于北京中关村
想知道AI加教育领域有哪些最新研究成果?
想要AI领域更多的干货?
想了解更多专家的“智能观”?
请在对话界面点击“找找看”,去获取你想要的内容吧。
声明:
编译文章旨在帮助读者了解行业新思想、新观点及新动态,为原作者观点,不代表智能观观点。

网友评论