摘要: 人工智能将要毁灭人类?人工智能让更多的人失去工作?是不是媒体过于夸大了人工智能的能力?人工智障还是人工智能?今天我们就来看看人工智能到底有什么样的缺点!
谷歌的首席执行官SUNDAR PICHAI 曾表示,人工智能对于人类来说,它比电力更为重要”。创建了Google Brain并现在就职于AI创业公司的Andrew Ng 写道: “如果一个人花只要不到十秒钟的时间就可以完成一项工作,那么我们现在或者将来都可以使用AI来实现自动化。“
他们对于人工智能的狂热是可以理解的。人工智能经过几十年的低迷后,今天已经取得了显着的进步。我们可以告诉一个像Alexa这样的通过语音激活的个人助理来“播放音乐 ”或者让Facebook来标记我们的照片; Google翻译现在已经做得与人工翻译一样精确。在过去的五年里,数十亿美元的研究经费和风险投资已经流向人工智能。人工智能已经成为麻省理工学院和斯坦福大学最热门的计算机科学课程。在硅谷,新崛起的AI专家的薪水可以高达50万美元。这一切都已经表明人工智能时代正在向我们走来。
但是人工智能并不能快速完成许多事情。一些缺点很容易使人工智能陷入困境,因为这些缺点都不会很快得到解决。一旦你已经看到这些缺点,你不能不忽视它。深度学习是现在人工智能的主导技术,但它本身不可能使普通的人类活动自动化。
要了解为什么现代人工智能善于处理一些事情,但不善于处理其他事情,这有助于了解深度学习到底是什么。深度学习是数学:计算机学习使用神经网络对数据进行分类的统计方法。这样的网络具有输入和输出,有点像我们自己的大脑中的神经元; 当他们拥有多个包含许多节点的隐藏层时,他们被认为是“深层次的”,并且拥有众多的连接。深度学习采用称为反向传播(backpropagation)或反向传播(backprop)的算法,调整节点之间的权重,以便输入更正确(注意这里是更正确)的输出。在语音识别中,音素c-a-t应该拼出单词“cat”;在图像识别中,猫的照片一定不能被标为“狗”。当神经网络被训练识别音素,图像或拉丁语与英语之间的关系时,使用数百万或数十亿之前的花了很大力气标记的数据,我们称这种深度学习方法是“监督式学习”。
深度学习的进步是模式识别的产物:神经网络记住事物的类别,并且或多或少地知道什么时候会再遇到它们。但是人类几乎所有的认知问题都不是分类问题。谷歌研究员FrançoisChollet表示:“人们天真地相信,如果你使用深度学习,并将其扩展100倍,甚至1000倍的数据量,神经网络将能够做任何人类可以做的事情,但事实并非如此。”
纽约大学的认知心理学教授,uber人工智能实验室的主任加里·马库斯(Gary Marcus)最近发表了一篇非常精彩的论文三部曲,对深度学习进行了批判性的评价。马库斯认为,深度学习不是“一种普世的工具,而是众多的工具之一”。如果没有新的方法出现,马库斯担心人工智能正在冲向一堵墙,这堵墙就是模式识别所不能解决的问题。除了Facebook的AI研究主任Yann LeCun之外,他的观点被大多数该领域的人认可了,他把这个观点简化为“全部错误(all wrong)”,而名誉教授Geoffrey Hinton在多伦多大学和反向传播的创造者,则表示这是一个“没有证据”证明,但却迫在眉睫的障碍。
马库斯这样的怀疑论者说,深度学习是贪婪,脆弱,不透明和浅薄的(对人类知之甚少)。人工智能系统是贪婪的,因为他们需要大量的训练数据。脆弱是因为当一个神经网络被赋予一个“转换测试”既面对与训练中使用的例子不同的场景时,它便不能发挥我们预想中的作用并经常中断。它们也是不透明的,因为与传统的具有正式可调试代码的程序不同,神经网络的参数只能根据数学中的权重来解释。因此,它们是黑盒子,其输出不能解释,不可解释性提高了他们的不可靠性疑虑。最后,他们是浅薄的,因为他们编程的知识不多,对世界或人类心理没有任何常识。
这些限制意味着大量的自动化将比AI双曲线分析的结果更难以捉摸。华盛顿大学主攻算法和计算机科学教授佩德罗·多明戈斯(Pedro Domingos)解释说:“自驾车可以行驶数百万英里,但最终会遇到一些没有遇到过的新事物。另外就是机器人问题:一个机器人可以学习拿起一个瓶子,但是如果必须拿起一个杯子,它就必须从头开始。”1月份,Facebook放弃了M,一个基于文本的虚拟助手,它训练了一个深度体系,但从来没有提供有用的想法或自然语言。
多明戈斯说:“我们头脑中一定有一个更好的学习算法,比我们想出的任何机器算法都要好,我们需要发明更好的机器学习方法“。根据马库斯的说法,人工智能的补救措施是融合:将深度学习与无监督学习技术相结合,而这些技术并不太依赖标记的训练数据,以及对以前主导AI的逻辑规则的深度学习的兴起。马库斯声称,我们最好的智慧模型是我们自己,是人类会以不同的方式思考。小孩子们可以学习语言的一般规则,不依赖太多的例子,这是因为他们天生就有这方面的天赋。“我们天生就知道世界上有因果关系,整体可以由部分组成,而整个世界包括的是在空间和时间上持续存在的地方和物体”。
人工智能领域的其他研究者有不同的看法。Pedro Domingos说:“自20世纪50年代以来,我们已经使用了相同的基本范例(机器学习)那么长时间了,我们需要一些新的想法来寻找突破口。”Chollet在程序合成中寻找灵感,自动创建其他程序的程序。Hinton目前的研究探索了一个他称之为“ 胶囊 capsules”的想法,它保留了反向传播,深度学习等算法,但是解决了人工智能的一些局限性。
“在AI中有很多核心问题完全没有解决,”Chollet说,“甚至在很大程度上没有提出任何解决方法。”但我们必须回答这些问题,因为有许多人不想做的任务,比如清理厕所和分类色情,或者哪些智能机器会做得更好,比如发现治疗疾病的药物。更多的是:有些事情我们根本做不到,大部分是我们无法想象的。
AI焦虑大牛说:
1.你可以停止恐慌一个超人的AI,凯文凯利写道,这是一个神话。
2.担心机器人会取代我们所有的工作,这不是那么简单。
3.但人工智能正在成为未来工作中不可或缺的因素。所以向你的新AI同事问好。
本文由阿里云云栖社区组织翻译。
文章原标题《greedy-brittle-opaque-and-shallow-the-downsides-to-deep-learning》
作者:JASON PONTIN,译者:虎说八道,审阅:。
网友评论