2017 十大失败 AI 案例

作者: 极小光 | 来源:发表于2017-12-27 15:36 被阅读601次

    简评:整体来说,2017 年的 AI 进步还是不小的,比 2016 的 AR/VR 强很多。今天的案例中有些还挺萌的。

    今年,AI 项目 AlphaGo 和 Libratus 成功战胜了人类最顶尖的围棋选手和扑克选手。但即使 AI 有这么多里程碑式的事件,仍有不少人对 AI 持怀疑态度,特别是见过了 2017 年不少 AI 的失败案例之后。

    一些新技术,新想法在努力的执行它们的任务,然而也经常会犯一些人类不会犯的错,这里总结了 2017 年值得注意的 AI 失败案例。

    1.被面具破解的 Face ID

    特别加工区域的额头、2D 图片的眼睛、硅胶鼻子、3D 打印的轮廓,轻松破解

    FaceID 面部识别是最新的 iPhone X 的解锁技术,据传是迄今为止最安全的 AI 激活方式,苹果吹嘘这项技术被破解的可能性是百万分之一。但随后越南公司 Bkav 花费 150 美元使用 3D打印的塑料、硅胶、化妆品、图片、和镂空结构组成了一个脸部模型轻松破解了 FaceID。Bkav 只是扫描了一个测试对象的面部,使用 3D 打印生成了个脸部模型,贴上纸的眼睛和嘴巴,硅胶鼻子就成功破解。这给行业带来了很大冲击,预示了消费者设备隐私的风险,以及人工智能的安全问题。

    2.邻居们因为 Amazon Echo 半夜自嗨而报警

    还上了新闻

    Amazon Echo 被公认为是先进的智能语音助手,很受欢迎。但没有事情是完美的。一名德国男子不在家,家中的 Echo 被意外激活,并在半夜两点开始播放音乐,吵醒了邻居。邻居打电话报警,警察不得不破门而入,关闭 Echo,警察还换了门锁,这个德国男子回家的时候,发现自己的钥匙打不开自己家门了。

    3.Facebook 聊天机器人 Chatbot 关闭

    两个机器人互相聊天,完全在说胡话

    今年七月,两个 Facebook 机器人无法互相识别彼此的语言,Chatbot 无法沟通而被关闭。大家猜测这两个机器人沟通的语言可能是一种新的加密语言,谣言四起。最后 Facebook 出面解释说这种神秘的交流只是语法编码自检的结果。

    4.拉斯维加斯的自动驾驶公交车第一天就撞车

    左边那个小车,被一辆货车转撞了,虽然责任在大货车,但明显小车不够聪明

    拉斯维加斯一辆自动驾驶公交车在十一月亮相,当时著名魔术师佩恩·泰勒也排队等候坐了这辆车。然而在两个小时后,公交车就被一辆大货车撞上了。尽管从技术上来说,公交车没有责任,是大货车的问题,但是这辆车上的乘客抱怨,当卡车慢慢靠近的时候,公交车不够聪明,根本没有任何躲避的动作。

    5. Google Allo 使用头巾回应枪支表情

    枪的提示回复:穆斯林

    美国有线电视台的一位工作人员使用 Google Allo(Google 的一款即时通讯软件)时,发现对方如果发来一个枪的表情,软件推荐回复的表情是 bad、刀和戴头巾的人(穆斯林?)。这个问题比较尴尬,Google 马上向公众保证已经解决了这个问题并且发表道歉。

    6.双胞胎戏耍汇丰银行语音识别 VoiceID

    双胞胎成功破解语音识别

    汇丰银行的语音识别 VoiceID 是一个语音 AI 安全系统,允许用户通过语音访问账户。汇丰声称它和指纹 ID 一样安全,但是 BBC 记者和他双胞胎兄弟却模仿彼此的声音成功访问了对方账户,只用了 7 次尝试就成功了。汇丰马上推出了解决方案:尝试三次失败之后就锁定账户。(???)

    7. Google AI 把步枪指认为直升机

    Google AI 把枪认成直升机

    麻省理工一个研究小组通过微调步枪的图片,欺骗了 Google Cloud Vision API,让 AI 把步枪判定为直升机。他们使用的方法是「不良样本」,给计算机引入一些人眼无法察觉的修改来对图像进行错误的分类。在过去,需要知道目标计算机系统的基本机制,这招才能奏效。但是这次麻省理工学院团队在没有获得系统信息的情况下,就成功的触发了错误分类。

    8.用路牌戏耍自动驾驶汽车

    把停车牌认成限速45

    研究人员发现,通过使用油漆或者胶带,修改停止标志,可以成功的欺骗自动驾驶汽车,使之进行错误的指令。比如把「LOVE」和「HATE」这两个词放在「STOP」标志上,就成功欺骗了自动驾驶汽车的机器学习系统,在测试中所有的车都把其误认为「限速 45」(Speed Limit 45)的标志。

    9. AI 识色系统各种混乱的匹配

    把颜色匹配各种奇怪的名字

    机器学习研究人员 Janelle Shan 训练了一个神经网络,以产生新的油漆颜色以及可以「匹配」每种颜色的名称。产生新颜色很顺利,但匹配名字简直是车祸现场。即使在用颜色名称数据进行少量训练之后,该模型仍然将天蓝色标记为「灰色耻骨」,将深绿色标记为「狂暴棕色」,将深粉标记为「银行屁股」。

    10.有了 Alexa 要什么圣诞老人🎄

    小女孩对语音助手说:我超爱你。然后语音助手就下单了

    Amazon Alexa 语音助手帮助我们提高了购物体验,让买东西变得非常简单。不过有时候过于简单了,2017 年 1 月,一个小女孩用跟 Alexa 说我想要个玩具房子和一罐曲奇,当时小女孩的原话是「你可以给我一个玩具屋并和我一起玩么?」。然后小女孩又说「我超爱你」。然后 Alexa 就下单了,第二天 170 美元的玩具屋和一罐曲奇就送到了家里,当然是她妈妈买单。现在她妈妈设置了密码,不能语音直接买了。(sad。。。)

    以上就是 10 个 2017 年的 AI 失败案例。

    英文原文:Synced | 2017 in Review: 10 AI Failures
    旧文推荐:
    现在的人工智能和人类相比处于什么水平?
    2018 年人工智能的三大趋势:情感、数据、道德


    **@园长:还行吧,不算太失败,其实有更失败的,比如前几天印度新德里的自动驾驶火车撞墙,幸好没人员伤亡。现在看来 AI 发展还算良好,相关人才也非常紧缺,入坑要趁早。另外最近搞了个「活动」,参与就有奖,白送一样,写看极光日报的观后感都行 。

    相关文章

      网友评论

        本文标题:2017 十大失败 AI 案例

        本文链接:https://www.haomeiwen.com/subject/zehjgxtx.html