人工智能?是超级程序?是人形机器?当谈及人工智能是什么的话题时,人们多会给出这样的答案。那么,您是啥时候知道人工智能的呢?“围棋比赛,那只‘狗’(AlphaGo),好像是2016年。”不错,从2016年开始,人工智能成了全球最热的技术话题。这在很大程度上是因为那只“狗”在围棋对决中的出色表现。谈起飞机,我们能追溯到莱特兄弟;说到电脑,我们能想起几间屋子大小的埃尼阿克。而人工智能则像一只怪物突然闯进了我们的世界,竟能在变数比人类可以观测到的宇宙原子总数还要多的围棋比赛中战胜人类。如今,充斥着各类媒体头条的人工智能好像离我们很近,触手可及,仿佛又很远,以至于说不清它从哪来,到哪去?认识人工智能可以先了解它的历史,我们不妨跟着小白走近人工智能。我叫小白,是一个比特,人们把我写作“0”。我的哥哥也是一个比特,他叫“1”。计算机的运行离不开我和哥哥。人工智能是计算机科学的一个分支,可以说,我是看着它长大的。1956年夏,群山环抱的达特茅斯学院掩映在一片葱绿之中,夕阳在康涅狄格河上涂画着自己的模样。此刻,约翰·麦卡锡正站在学院计算机机房1956年夏,群山环抱的达特茅斯学院掩映在一片葱绿之中,夕阳在康涅狄格河上涂画着自己的模样。此刻,约翰·麦卡锡正站在学院计算机机房的窗边,望着波光粼粼的水面,大口地呼吸着新鲜空气,以平复激动地心情。我在一旁听到了他拨给克劳德·香农的电话——决定开展一次关于人工智能的研究。约翰·麦卡锡、克劳德·香农和另外8为计算机科学领域内的大咖在达特茅斯讨论了两个月,制定了一个极其宏大的目标——在机器上搭建人工智能。因此,1956年被称为人工智能元年。约翰·麦卡锡也被后人冠以“人工智能之父”的称号。人工智能这个新生儿吸引了全世界的目光。兴奋之余,科学家们也在思考如何养育它。随之,主要分化成了两个阵营:其一主张规则式方法,其二选择神经网络方法。规则式方法即用一系列写好的逻辑规则教人工智能如何思考。比如通过教授机器语法规则解决机器翻译问题,向机器描述物体的特征解决图像识别问题。选择神经网络方法的科学家则另辟蹊径,模仿人脑结构,构建类似生物的神经元网络。他们不给机器构建逻辑规则,而是把机器翻译、图像识别等领域的大量例子“喂”给人工神经元网络,让它从实例中学习、找规律。让机器具备人类智能,这个命题本身就足以引人关注。人工智能的童年是在聚光灯下度过的。随着神经网络研究的深入和计算机技术的发展,人工智能领域取得了让人振奋的成果。第一个大突破出现于1958年,罗森布拉特在计算机上模拟实现了“感知机”的模型,该模型可以完成一些简单的视觉处理任务,是后来人工神经第一个大突破出现于1958年,罗森布拉特在计算机上模拟实现了“感知机”的模型,该模型可以完成一些简单的视觉处理任务,是后来人工神经网络的雏形。1959年,IBM的内森尼尔设计了一个名为几何定理证明器的人工智能程序,在一些定理的证明上它甚至超过了数学专业的学生。1962年时,阿瑟·萨缪尔(参加达特茅斯会议的10位科学家之一)制作的西洋跳棋程序经过屡次改进后,终于战胜了州冠军。机器在智力的角逐中战胜人类,这还是第一次。然而人工智能的发展不像计算机那样一帆风顺。13岁那年,正当茁壮成长之时遇到了它人生中第一道坎儿。1969年,一篇论文浇灭了人们对神经网络的热情,研究结果显示“感知机”在解决基本逻辑问题时能力有限。随即,一些机构停止了对人工智能项目的自助,没有资本也就没有了发展的动力。与此同时,规则式方法也遇到了瓶颈。面对纷繁负责的文字世界,只学习了基本语法规则、掌握基本词汇量的机器根本招架不住。此刻,人工智能的处境与卖火柴的小女孩相差无几,它不知道能不能挨过寒冷的夜。究其原因,首先在算法模型上存在缺陷。其次笨重的晶体管计算机制约了机器运算能力,也限制了人们的创造力。漫漫冬夜击不垮希望的种子,它终会发芽。1986年的一天,我在卡内基梅隆大学的计算机上闲逛时看到了一篇论文《反向传导误差的学习表征》,其中有一位作者叫杰弗里·辛顿。没多1986年的一天,我在卡内基梅隆大学的计算机上闲逛时看到了一篇论文《反向传导误差的学习表征》,其中有一位作者叫杰弗里·辛顿。没多久,这篇论文火了,把沉寂已久的人工神经网络拉回了人们的视线。这篇论文究竟讲了什么呢?大家对某综艺节目的“传声筒”游戏应该不会陌生,一段台词传到最后一个人时往往面目全非。反向传导的原理就是,将这段台词给最后一个人看,让他对比其中的多少误差,再将误差依次传给前面的人,让每个队友分析误差中有多少是自己的,下次描述时哪里需要改进。由此一来,就能提高机器学习的准确度。这种机制极大提高了人工神经网络的性能。另外,好奇心强的我还扒了扒杰弗里·辛顿的成长历程,想看看他是怎么想到这一巧妙的方法的。早在辛顿上高中时,一个朋友就向他描述过大脑的工作原理。像3D全息图一样的工作原理让小辛顿着迷。有时一句话就能在一个人的心里埋下一颗种子。后来即使在当木匠时,每个星期六早上,他都会去伊斯灵顿的埃塞克斯路图书馆,在笔记本里记下关于大脑工作原理的理论。人工智能能走出寒夜,离不开辛顿和像他一样擎着火把前行的人。但这并没有改变人工智能再度失宠的命运,第二场“寒冬”还是来了,而且持续了整个20世纪90年代。人工神经网络需要用数据“喂养”,当时网络技术刚刚起步,与今天相比数据量还很有限,人工神经网络未能使人工智能满足大众的需求。进入新世纪,随着互联网技术的发展和普及,呈指数增长的数据量为人工神经网络发展提供了优渥的土壤。进入新世纪,随着互联网技术的发展和普及,呈指数增长的数据量为人工神经网络发展提供了优渥的土壤。2005年,新成立不久的谷歌公司参加了美国国家标准与技术研究院主持的世界机器翻译系统评测。评测结果出人意料,谷歌在中英、阿(拉伯语)英互译中获得了第一名,且遥遥领先在此领域浸淫了数十年的IBM公司。值得一提的是,编写谷歌机器翻译程序的负责人弗朗兹·奥科不懂中文、更不懂阿拉伯语,该程序的老师是大量的数据。在于规则式方法竞争了几十年后,几经浮沉的人工神经网络终于赢了。2006年,杰弗里•辛顿找到了有效训练人工神经网络中新增神经元层的方法。这给旧的神经网络仿佛打了一针强心剂。辛顿和他的小组还为性能大增的人工神经网络起了个新名字——“深度学习”。2012年,辛顿的团队利用一场国际计算机视觉竞赛,让人工神经网络重新回到聚光灯下,“深度学习”从此走进大众视野。今天,人们也终于明白,数据是驱动人工智能发展的能源。不知道聪明的你是否发现,智能问题已经悄然变成了如何处理数据的问题。这与飞今天,人们也终于明白,数据是驱动人工智能发展的能源。不知道聪明的你是否发现,智能问题已经悄然变成了如何处理数据的问题。这与飞机的发展有相似之处,在飞机诞生之前,人们认为人类要想飞行就得像鸟一样有双翅膀。后来才发现,飞行利用的是空气动力学原理而不是仿生学原理。人工智能的发展过程也是如此,人工智能不一定要像人类大脑一样思考,利用数据一样能解决问题。人工智能的发展史,可以说是硬件的更新史、数据的积累史、算法的迭代史。计算机技术的发展带动了硬件的革新:现在我们手中智能手机的运算能力,比1969年美国国家航空航天局在登月计划中使用的计算机运算能力高出几万倍。互联网技术的发展则为人工智能带来了大量的数据:点的每一个赞、浏览的每一个网页、扫描的每一个二维码,都成了人工智能的“数据养料”。杰弗里•辛顿、吴恩达、吴军、李开复等人工智能专家,还有百度、谷歌等高科技公司,一次次革新人工智能算法:让无人驾驶车辆、无人工厂变为可能。弄清楚了它从哪里来,很多问题才能看得深、把得准,才能更好地迎接它的未来。人工智能虽已年过花甲,但它的发展势头却如朝阳般蓬勃。
网友评论