美文网首页嵌牛IT观察
神经网络的前世今生

神经网络的前世今生

作者: Daniel_go | 来源:发表于2020-11-21 20:14 被阅读0次

    学号:20021110085              姓名:郑佳 

    转载自:https://zhuanlan.zhihu.com/p/273263685 (这是我个人的知乎文章)

    【嵌牛导读】 人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似

    【嵌牛鼻子】神经网络的前世今生

    【嵌牛正文】

    当下深度学习技术十分火热,已应用于很多领域,比如:计算机视觉与医疗领域,人脸识别与公安服务领域,语音图形与日常生活等。

    深度学习的核心就是神经网络,只有深入了解和学习神经网络,方能对深度学习有更好的认识,为后期的深度学习打下坚实的基础。

    神经网络概述和发展史中讲述了神经网络的发展历史的4个时期,启蒙时期(1890-1969),低潮时期(1969-1982),复兴时期(1982-1986),新时期(1986至今),同时也讲述了深度学习三巨头的详细信息。

    大佬之间的关系如下图:

    从图中可以一目了然的看出,Hinton是元老级别的存在。

    接下来介绍神经网络发展

    下图是一个经典的神经网络,由输入层,隐藏层,输出层组成。

    红色的是输入层,绿色的是输出层,紫色的是中间层(也叫隐藏层)。输入层有3个输入单元,隐藏层有4个单元,输出层有2个单元。后文中,我们统一使用这种颜色来表达神经网络的结构。

    上图中,我们需知以下三个方面的知识:

    设计一个神经网络时,输入层与输出层的节点数往往是固定的,中间层则可以自由指定;

    神经网络结构图中的拓扑与箭头代表着预测过程时数据的流向,跟训练时的数据流有一定的区别;

    结构图里的关键不是圆圈(代表“神经元”),而是连接线(代表“神经元”之间的连接)。每个连接线对应一个不同的权重(其值称为权值),这是需要训练得到的。 

    (1)神经元

    一个神经元通常具有多个树突,主要用来接受传入信息;而轴突只有一条,轴突尾端有许多轴突末梢可以给其他多个神经元传递信息。轴突末梢跟其他神经元的树突产生连接,从而传递信号。这个连接的位置在生物学上叫做“突触”。

    1943年,心理学家McCulloch和数学家Pitts参考生物神经元,建立M-P模型(两位大牛的首字母)。为了使得建模更加简单,以便于进行形式化表达,我们忽略时间整合作用、不应期等复杂因素,并把神经元的突触时延和强度当成常数。下图就是一个M-P模型的示意图。

    图中所谓的”连接“,也就是权重其实才是神经元中最重要的东西。我们要做的就是将每一个权重值调整到最优,进而得到最优的预测结果。

    如果我们将神经元图中的所有变量用符号表示,并且写出输出的计算公式的话,就是下图。

    可见z是在输入和权值的线性加权和叠加了一个函数g的值。在MP模型里,函数g是sgn函数,也就是取符号函数。这个函数当输入大于0时,输出1,否则输出0。

    下面对神经元模型的图进行一些扩展。首先将sum函数与sgn函数合并到一个圆圈里,代表神经元的内部计算。其次,把输入a与输出z写到连接线的左上方,便于后面画复杂的网络。最后说明,一个神经元可以引出多个代表输出的有向箭头,但值都是一样的。

    神经元可以看作一个计算与存储单元。计算是神经元对其的输入进行计算功能。存储是神经元会暂存计算结果,并传递到下一层。

    当我们用“神经元”组成网络以后,描述网络中的某个“神经元”时,我们更多地会用“单元”(unit)来指代。同时由于神经网络的表现形式是一个有向图,有时也会用“节点”(node)来表达同样的意思。

    神经元模型的效果,可表述如下:

    我们有一个数据,称之为样本。样本有四个属性,其中三个属性已知,一个属性未知。我们需要做的就是通过三个已知属性预测未知属性。

    具体办法就是使用神经元的公式进行计算。三个已知属性的值是a1,a2,a3,未知属性的值是z。z可以通过公式计算出来。

    这里,已知的属性称之为特征,未知的属性称之为目标。假设特征与目标之间确实是线性关系,并且我们已经得到表示这个关系的权值w1,w2,w3。那么,我们就可以通过神经元模型预测新样本的目标。 

    神经元模型的影响

    1943年发布的MP模型(神经元模型),虽然简单,但已经建立了神经网络大厦的地基。缺点是,MP模型中,权重的值都是预先设置的,因此不能学习。

    1949年心理学家Hebb提出了Hebb学习率,认为人脑神经细胞的突触(也就是连接)上的强度上可以变化的。于是计算科学家们开始考虑用调整权值的方法来让机器学习。这为后面的学习算法奠定了基础。

    (2)单层神经网络

    1958年,计算科学家Rosenblatt提出了由两层神经元组成的神经网络,即“感知器”(Perceptron)[也称为”感知机“]。感知器是当时首个可以学习的人工神经网络。Rosenblatt现场演示了其学习识别简单图像的过程,在当时的社会引起了轰动。人们认为已经发现了智能的奥秘,许多学者和科研机构纷纷投入到神经网络的研究中。美国军方大力资助了神经网络的研究,并认为神经网络比“原子弹工程”更重要。这段时间直到1969年才结束,这个时期可以看作神经网络的第一次高潮。

    在“感知器”中,有两个层次。分别是输入层和输出层。输入层里的“输入单元”只负责传输数据,不做计算。输出层里的“输出单元”则需要对前面一层的输入进行计算。

    例如,输入的变量是[a1,a2,a3]T(代表由a1,a2,a3组成的列向量),用向量a来表示。方程的左边是[z1,z2]T,用向量z来表示。

    系数则是矩阵W(2行3列的矩阵,排列形式与公式中的一样)。

    于是,输出公式可以改写成:g(W*a) =z; 

    关于感知机模型及学习策略和方法,可参考李航老师的《统计学习方法》第二章内容。

    感知器为什么无法解决异或(XOR)问题:

    首先,什么是异或问题?

    异或运算主要指二进制中。

    0⊕0=0,0⊕1=1

    1⊕0=1,1⊕1=0

    简单来说就是同为0,异为1。

    感知器本身是一个线性分类器,故可处理线性问题。然而异或问题属于非线性的,

    如下图:无法画出一条直线将”异或问题“分开。

    综上所述:感知器无法解决异或问题。

    分析:

    与神经元模型不同,感知器中的权值是通过训练得到的。因此,根据以前的知识我们知道,感知器类似一个逻辑回归模型,可以做线性分类任务。感知器只能做简单的线性分类任务。但是当时的人们热情太过于高涨,并没有人清醒的认识到这点。于是,当人工智能领域的巨擘Minsky在1969年出版了一本叫《Perceptron》的书,里面用详细的数学证明了感知器的弱点,尤其是感知器对XOR(异或)这样的简单分类任务都无法解决。

    Minsky认为,如果将计算层增加到两层,计算量则过大,而且没有有效的学习算法。所以,他认为研究更深层的网络是没有价值的。由于Minsky的巨大影响力以及书中呈现的悲观态度,让很多学者和实验室纷纷放弃了神经网络的研究。神经网络的研究陷入了冰河期。这个时期又被称为“AI winter”。接近10年以后,对于两层神经网络的研究才带来神经网络的复苏。

    (3)两层神经网络

    Minsky说过单层神经网络无法解决异或问题。但是当增加一个计算层以后,两层神经网络不仅可以解决异或问题,而且具有非常好的非线性分类效果。不过两层神经网络的计算是一个问题,没有一个较好的解法。

    直到1986年,Rumelhar和Hinton等人提出了反向传播(Backpropagation,BP)算法,解决了两层神经网络所需要的复杂计算量问题,从而带动了业界使用两层神经网络研究的热潮。

    两层神经网络除了包含一个输入层,一个输出层以外,还增加了一个中间层。此时,中间层和输出层都是计算层。我们扩展上节的单层神经网络,在右边新加一个层次(只含有一个节点)。

    例如ax(y)代表第y层的第x个节点。z1,z2变成了a1(2),a2(2)。下图给出了a1(2),a2(2)的计算公式。

    此时,在两层神经网络中,我们不再使用sgn函数作为函数g,而是使用平滑函数sigmoid作为函数g。我们把函数g也称作激活函数(active function)。

    事实上,神经网络的本质就是通过参数与激活函数来拟合特征与目标之间的真实函数关系。

    两层神经网络在多个地方的应用说明了其效用与价值。10年前困扰神经网络界的异或问题被轻松解决。神经网络在这个时候,已经可以发力于语音识别,图像识别,自动驾驶等多个领域。

    但是神经网络仍然存在若干的问题:尽管使用了BP算法,一次神经网络的训练仍然耗时太久,而且困扰训练优化的一个问题就是局部最优解问题,这使得神经网络的优化较为困难。同时,隐藏层的节点数需要调参,这使得使用不太方便,工程和研究人员对此多有抱怨。

    90年代中期,由Vapnik等人发明的SVM(Support Vector Machines,支持向量机)算法诞生,很快就在若干个方面体现出了对比神经网络的优势:无需调参;高效;全局最优解。基于以上种种理由,SVM迅速打败了神经网络算法成为主流。

    神经网络的研究再次陷入了冰河期。当时,只要你的论文中包含神经网络相关的字眼,非常容易被会议和期刊拒收,研究界那时对神经网络的不待见可想而知。

    (4)多层神经网络(深度学习)

    在被人摒弃的10年中,有几个学者仍然在坚持研究。这其中的棋手就是加拿大多伦多大学的Geoffery Hinton教授。

    2006年,Hinton在《Science》和相关期刊上发表了论文,首次提出了“深度信念网络”的概念。与传统的训练方式不同,“深度信念网络”有一个“预训练”(pre-training)的过程,这可以方便的让神经网络中的权值找到一个接近最优解的值,之后再使用“微调”(fine-tuning)技术来对整个网络进行优化训练。这两个技术的运用大幅度减少了训练多层神经网络的时间。他给多层神经网络相关的学习方法赋予了一个新名词--“深度学习”。

    此部分之后,重点说明。

    与两层层神经网络不同。多层神经网络中的层数增加了很多,意味着更深入的表示特征,以及更强的函数模拟能力。

    更深入的表示特征可以这样理解,随着网络的层数增加,每一层对于前一层次的抽象表示更深入。在神经网络中,每一层神经元学习到的是前一层神经元值的更抽象的表示。例如第一个隐藏层学习到的是“边缘”的特征,第二个隐藏层学习到的是由“边缘”组成的“形状”的特征,第三个隐藏层学习到的是由“形状”组成的“图案”的特征,最后的隐藏层学习到的是由“图案”组成的“目标”的特征。通过抽取更抽象的特征来对事物进行区分,从而获得更好的区分与分类能力。

                                                            神经网络的前世今生

    参考:

    神经网络浅讲:从神经元到深度学习 - 计算机的潜意识 - 博客园

    感知器-从零开始学深度学习 - JokerJason - 博客园

    神经网络发展史_Jiali Zhang的博客-CSDN博客

    神经网络学习 之 M-P模型_Mr.Phoebe的专栏-CSDN博客

    深度学习基础--感知机 - Shaw_喆宇 - 博客园 

    相关文章

      网友评论

        本文标题:神经网络的前世今生

        本文链接:https://www.haomeiwen.com/subject/wcweiktx.html