学号:16020120050
姓名:吴言凡
转自:https://www.leiphone.com/news/201710/JMi2knn0D0bSXiIn.html
【嵌牛导读】:21世纪的计算”学术研讨会上,微软联合哈工大邀请了包括图灵奖获得者John Hopcroft在内的多位世界级计算机领域专家分享他们在AI领域的研究和观点。
【嵌牛鼻子】:人工智能,大数据
【嵌牛提问】:现在火热的人工智能真正意义上的是AI吗?还是仅仅只是大量计算而已?
【嵌牛正文】:
2017年10月19日微软亚洲研究院 联合 哈尔滨工业大学共同在哈尔滨市举办了第19届“21世纪的计算” 大型国际学术研讨会(21CCC 2017)。
“二十一世纪的计算”学术研讨会是微软亚洲研究院自创立之初便开始举办的年度学术盛会,每年都吸引着无数计算机科学领域学者们的目光。作为中国及亚太地区规模最大、最具影响力的计算机科学教育与研究盛会之一,该大会已在中国、日本、韩国、新加坡等多个国家和地区成功举办了18届。
本次大会的主题为“人工智能,未来之路”,并邀请了包括图灵奖获得者John Hopcroft在内的多位世界级计算机领域专家分享他们在AI领域的研究和观点。现场有超过1500名高校师生参与。
在本演讲中,康奈尔大学计算机系教授、1986年图灵奖获得者John Hopcroft带领大家回顾了机器学习的基础知识,并分享了一些深度学习领域中比较有趣的研究问题。
John从最简单的线性分类器(感知器)算法讲起。随后介绍了在数据线性不可分情况下把样本映射到更高维空间的研究,包括核函数等,这种情况下支持向量机的出现极大地促进了这方面的研究。在支持向量机之后,机器学习的下一个大的发展就是深度学习。随着深度神经网络的引入,特别是卷积神经网络(卷积神经网络,由卷积层、池化层、全连接层组成,最后是softmax输出每个类别的概率)的引入,图像分类等方面的错误率逐年下降,在2015年微软亚研院提出的152层深度残差网络(ResNet)在图像分类中超过了人的识别水平。
但是在这方面还有很多问题值得研究,例如每个门学习的是什么、怎样让第二层的门与第一层的门学习不同的信息、怎样让一个门学习的内容随时间演化、用不同的初始权重门学习的是否是相同的内容、用不同的图像集训练两个网络早期的门学习的是否相同等等。
此外,在训练一个深度网络时,可能会有许多局部极小值,有些极小值可能会比其他的好。如何保证我们在训练的过程中能够找到一个好的局部极小值呢?训练深度网络往往会花费很长的时间,我们是否可以加速训练呢?这些也都是非常有意义的研究方向。
随后John考虑了当训练两个网络时会出现什么有趣的研究。对于两个网络,我们可以同时训练,也可以一先一后。
这两种情况,两个网络在激活空间里是否共享相同的区域呢?
一个当前比较火的例子就是生成式对抗网络(GAN),这个网络属于一先一后的情况。
最后John提出了一个问题:人工智能是真的吗?他认为,现在的人工智能只是高维空间中的模式识别,AI还不能提取出一个事物的本质或者理解它的功能。在John看来,要想实现这一点,只是需要另外40年的时间。
他还说到,其实很多现在看来是智能的任务其实都不是AI,有些只需要强大的计算以及大数据就足够了,例如棋类比赛。计算机正在做越来越多的人们以为需要智能的事情,实际上有些并不是AI。所以我们在从事人工智能相关的工作时要想一想,这个问题的核心的并不是是AI,而是仅仅需要大计算而已。
网友评论