一文搞清楚AI的前世今生,so easy!

作者: 李杰克 | 来源:发表于2019-07-03 21:12 被阅读0次

    ​AI自诞生之日便注定经历风雨,它的发展可谓高潮低谷交替,颇为波澜壮阔。

    个中细节,是不大可能通过一篇文章穷尽的,李杰克试着将整个波澜壮阔的发展史中一些具有重要意义的里程碑给大家梳理下,让大家可以较低成本地厘清AI的前世今生。

    1950年的一天,一个叫被后世人称之为“人工智能之父”年轻人Minsky和他的同学们一起建造了世界上第一台神经网络计算机,由3000个真空管模拟40个神经元组成的网络,这可以算是深度学习神经网络的前世。

    Minsky

    同时,Minsky除了是人工智能领域里第一个图灵奖获得者,虚拟现实最早的倡导者,还是世界上第一个人工智能实验室的联合创始人,不得硕果累累、誉满天下。

    非常巧合的是,在相同的一年,“计算机之父”Turing在他的经典之作《Computing machinery and intelligence》中阐述了通过“模仿游戏”这一博弈游戏来判定“机器能否思考”这一命题,并首次提出了提出来了著名的图灵测试,这段经历也在卷福的《模仿游戏》有所展现,大家感兴趣可以去看看电影。

    《模仿游戏》

    图灵测试的核心逻辑在于:如果一个机器能够与人类开展对话而不被辨别出身份,那这台机器就是智能。与此同时,Turing对人工智能特别乐观,还预言了强人工智能存在的可能性,他的思想对后世的影响巨大!

    Turing

    时间线被拉到了1956年8月,在美国汉诺斯小镇宁静的达特茅斯学院中,一群人举办了一个研讨用机器来模仿人类学习以及其他方面智能的会议。

    会议吭哧吭哧开了两个月,并没有让大家达成普遍的共识,但John McCarthy在会议上首次提出了Artificial Intelligence也的概念,AI首次被提出了,所以1956年也被大家视作是人工智能的元年。

    值得注意的是这次会议的参与者都有大有来头,除了前面提到的人工智能之父Minsky,还有大名鼎鼎的信息论的创始人Claude Shannon、模式识别的奠基人Oliver Selfridge和若贝尔经济学奖得主Herbert Simon。

    达特茅斯与会大佬们

    自诞生起,AI便与众不同,注定经历风雨,它的发展颇为曲折坎坷,其中历经了三次高潮和低谷。

    AI的高潮低谷

    第一次高潮与低谷

    达特茅斯会议后的十来年,人工智能的发展迎来它的第一个黄金时期,计算机被广泛应用语言和数学领域,的确也解决了一些问题,看起来形势非常好,人们心里充满了美好的希望:"二十年内,机器将能完成人能做到的一切"、“在三到八年的时间内我们将得到一台具有人类平均智能的机器”。

    希望越大,失望也往往越大,事物的发展并不总是一番风顺的,人们逐渐发现人工智能有很大的局限。

    甚至被誉为“人工智能之父”的Minsky在1969年发表的《Perceptrons》中批判神经网络:第一,单层感知机(当年单层神经网络的叫法)无法解决最基本的异或问题;第二,当时的计算力无法处理大型神经网络。后续多个政府和机构都陆续取消对人工智能的研究的资助,神经网络的研究进入了寒冬阶段。


    第二次高潮与低谷

    80年代的接踵而至,卡内基梅隆大学设计了一套具有完整专业知识和经验的专家系统XCON,为相关企业节省了大量的成本,算是一次人工智能较成功的商业落地。1981年日本经济产业省拨款八亿五千万美元用语研发出能够与人对话、翻译语言、解释图像且具备推理能力的第五代计算机项目,后续英美等多个国家都开始为AI研发提供了大量的资金。

    同时,Hinton等人也在1986年合作的论文第一次提出了用反向传播法(back propagation),以解决两层神经网络所需要的复杂计算量的问题,也推翻了Minsky说过的神经网络无法解决异或问题的结论。反向传播法可以说是深度学习史上非常重要重要的里程碑,反向传播法使得多层神经网络的出现才有了可能,才会有今天人工智能的火热。

    虽然是Hinton等人第一次正式提出了反向传播法,但Paul Werbos在1974年自己的博士论文中就首次提到通过反向传播法来训练人工神经网络,但是当时属于神经网络的寒冬时代,所以也不了了之了。

    反向传播法让神经网络获得了新的生机,但这次繁荣并没有持续太长时间。因为当时的获取到的数据的规模并不大,因此训练过程中经常饱受过拟合的困扰,拍拍小黑板,过拟合你可以理解为,模型在已有的训练数据上的表现很棒,但是在未知的数据上表现非常差劲。

    随着专家系统的落寞、第五代计算机的惨淡收场和神经网络还处于较初级的阶段,人工智能又再次步入了寒冬阶段。

    相反在这期间出现的支持向量机(SVM)等统计学习算法,它们更容易被解释和理解,开始在应用中陆续展露出头角,成为了这个阶段机器学习的主流研究方向。

    关于神经网络的研究发展仿佛又进入了寒冬一般,不过好在Hinton、Yann Lecun、Yoshua Bengio等大神仍然在淡然坚守,为人工智能的第三次高潮到来默默付出与耕耘。

    深度学习三巨头

    第三次高潮

    时光匆匆,转眼来到了2006年,Hinton等人一篇名为《一种深度置信网络的快速学习算法》的论文,首次提出了深度学习的概念:多层神经网络具备很强的特征学习能力。

    同时Hinton在论文中也提出了解决深层网络训练中梯度消失的解决方案:无监督预训练对权值进行初始化+有监督训练微调,影响意义重大,所以2006年也被称之为深度学习元年。

    如果2006年是深度学习的纪元,那2012年就是深度学习开始一统江湖的时间点。2012年,Hinton和Alex参加了ImageNet分类任务大赛并凭借AlexNet夺得桂冠。

    ImageNet比赛

    AlexNet第一名的成绩是以统治性的成绩拿到的,它的Top5错误率仅15.3%,而第二名的是26.2%。同年,Google将深度学习首先应用于语音识别,单词错误识别率(Word Error Rate)打造了12.3%,而此前,各语音识别模型的WER大概是在30%左右,可以说深度学习使得这些领域的研究有了质的提升。

    AlexNet是一个只有5层的神经网络,而聪明的人类现在已经折腾出了深度达数百层且网络更复杂的结构,不断地刷新各项比赛的记录,我们迎来了深度学习一统江湖,所向披靡的时代。

    2016年3月,AlphaGo通过学习海量的人类棋谱后战胜了职业九段选手李世石,一年后AlphaGo的进化版本AlphaGo Master战胜世界围棋冠军柯洁后又以横扫千军的姿态60连胜几乎所有的围棋大师。

    你以为这就结束了么?并没有!这货又通过自己跟自己下了三天的方式进化成了版本AlphaGo Zero, 我们以为AlphaGo Master已经所向披靡了,但是AlphaGo Zero对阵AlphaGo Master的 战绩是100:0。

    至此,人类在围棋这个曾经象征着人类智慧桂冠的项目已经完败,更为可怕的是,这些世界级围棋大师们表示并看不懂AlphaGo下棋的策略,甚至开始纷纷学习AlphaGo的下棋策略。

    就这样,在一次次刷遍社交媒体的新闻中,人工智能的第三次高潮高调地到来了。

    我们也将注定卷入这场变革的洪流中....

    李杰克在打一个小广告,关注我的gongzhonghao,史上最无痛、有趣、系统的AI分享将向你袭来

    相关文章

      网友评论

        本文标题:一文搞清楚AI的前世今生,so easy!

        本文链接:https://www.haomeiwen.com/subject/okkhhctx.html