美文网首页学习人工智能机器学习
从感知机到深度网络的学习

从感知机到深度网络的学习

作者: 马崇 | 来源:发表于2017-02-24 13:20 被阅读81次

    主要内容摘自网上,主要是学习使用。

    一、机器学习基础

    1、机器学习算法需要输入少量(数据越多越好)标记好的样本,比如10张小狗的照片,其中1张标记为1(意为狗)其它的标记为0(意为不是狗)——本文主要使用监督式、二叉分类。

    2、这些算法“学习”怎么样正确将狗的图片分类,然后再输入一个新的图片时,可以期望算法输出正确的图片标记(如输入一张小狗图片,输出1;否则输出0)。

    这通常是难以置信的:你的数据可能是模糊的,标记也可能出错;或者你的数据是手写字母的图片,用其实际表示的字母来标记它。

    二、感知机

    感知机是最早的监督式训练算法,是神经网络构建的基础。

    假如平面中存在  n  个点,并被分别标记为“0”和“1”。此时加入一个新的点,如果我们想知道这个点的标记是什么(和之前提到的小狗图片的辨别同理),我们要怎么做呢?一种稍微“智能”的办法则是去找出平面上的一条线来将不同标记的数据点分开,并用这条线作为“分类器”来区分新数据点的标记。

    这种简单的感知机有一个明显缺陷:只能学习 线性可分函数 。这个缺陷重要吗?比如  XOR,这么简单的函数,都不能被线性分类器分类。

    三、前馈神经网络

    为了解决这个问题,我们要使用一种多层感知机,也就是——前馈神经网络:事实上,我们将要组合一群这样的感知机来创建出一个更强大的学习机器。

    神经网络实际上就是将大量之前讲到的感知机进行组合,用不同的方法进行连接并作用在不同的激活函数上。

    我们简单介绍下前向神经网络,其具有以下属性:

    一个输入层,一个输出层,一个或多个隐含层。上图所示的神经网络中有一个三神经元的输入层、一个四神经元的隐含层、一个二神经元的输出层。

    每一个神经元都是一个上文提到的感知机。

    输入层的神经元作为隐含层的输入,同时隐含层的神经元也是输出层神经元的输入。

    每条建立在神经元之间的连接都有一个权重  w  (与感知机中提到的权重类似)。

    在  t  层的每个神经元通常与前一层(  t – 1层 )中的每个神经元都有连接(但你可以通过将这条连接的权重设为0来断开这条连接)。

    为了处理输入数据,将输入向量赋到输入层中。在上例中,这个网络可以计算一个3维输入向量(由于只有3个输入层神经元)。假如输入向量是 [7, 1, 2],你将第一个输入神经元输入7,中间的输入1,第三个输入2。这些值将被传播到隐含层,通过加权传递函数传给每一个隐含层神经元(这就是前向传播),隐含层神经元再计算输出(激活函数)。

    输出层和隐含层一样进行计算,输出层的计算结果就是整个神经网络的输出。

    超线性

    如果每一个感知机都只能使用一个线性激活函数会怎么样?整个网络的最终输出也仍然是将输入数据通过一些线性函数计算过一遍,只是用一些在网络中收集的不同权值调整了一下。换名话说,再多线性函数的组合还是线性函数。如果我们限定只能使用线性激活函数的话,前馈神经网络其实比一个感知机强大不到哪里去,无论网络有多少层。

    正是这个原因, 大多数神经网络都是使用的非线性激活函数,如对数函数、双曲正切函数、阶跃函数、整流函数等。不用这些非线性函数的神经网络只能学习输入数据的线性组合。

    反向传播算法

    大多数常见的应用在 多层感知机的监督式训练的算法都是反向传播算法。基本的流程如下:

    1、将训练样本通过神经网络进行前向传播计算。

    2、计算输出误差,常用均方差

    3、网络误差通过 随机梯度下降 的方法来最小化。

    隐含层

    隐含层十分有趣。根据 普适逼近原理 ,一个具有有限数目神经元的隐含层可以被训练成可逼近任意随机函数。换句话说,一层隐含层就强大到可以学习任何函数了。这说明我们在多隐含层(如深度网络)的实践中可以得到更好的结果。隐含层存储了训练数据的内在抽象表示,和人类大脑(简化的类比)保存有对真实世界的抽象一样。

    大规模网络中的难题

    神经网络中可以有多个隐含层:这样,在更高的隐含层里可以对其之前的隐含层构建新的抽象。而且像之前也提到的,这样可以更好的学习大规模网络。增加隐含层的层数通常会导致两个问题:

    1、梯度消失:随着我们添加越来越多的隐含层,反向传播传递给较低层的信息会越来越少。实际上,由于信息向前反馈,不同层次间的梯度开始消失,对网络中权重的影响也会变小。

    2、过度拟合:也许这是机器学习的核心难题。简要来说,过度拟合指的是对训练数据有着过于好的识别效果,这时导至模型非常复杂。这样的结果会导致对训练数据有非常好的识别较果,而对真实样本的识别效果非常差。

    四、深度学习

    自编码器(自动编码器)

    大多数的机器学习入门课程都会让你放弃前馈神经网络。但是实际上这里面大有可为。

    自编码器就是一个典型的前馈神经网络,它的目标就是学习一种对数据集的压缩且分布式的表示方法(编码思想)。

    神经网络的目的是要训练去“重新建立”输入数据,好像输入和目标输出数据是一样的。换句话说:你正在让神经网络的输出与输入是同一样东西,只是经过了压缩。(好像是通信问题)

    自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。

    例子压缩输入数据:灰度图像

    这里有一个由28×28像素的灰度图像组成的训练集,且每一个像素的值都作为一个输入层神经元的输入(这时输入层就会有784个神经元)。输出层神经元要有相同的数目(784),且每一个输出神经元的输出值和输入图像的对应像素灰度值相同。

    在这样的算法架构背后,神经网络学习到的实际上并不是一个训练数据到标记的“映射”,而是去学习数据本身的内在结构和特征(也正是因为这,隐含层也被称作特征探测器(feature detector))。通常隐含层中的神经元数目要比输入/输入层的少,这是为了使神经网络只去学习最重要的特征并实现特征的降维。

    我们想在中间层用很少的结点去在概念层上学习数据、产生一个紧致的表示方法。

    受限波尔兹曼机

    受限波尔兹曼机( Restricted Boltzmann machines  RBM),一种可以在输入数据集上学习概率分布的生成随机神经网络。

    RBM由隐含层、可见层、偏置层组成。和前馈神经网络不同,可见层和隐含层之间的连接是无方向性(值可以从可见层->隐含层或隐含层->可见层任意传输)且全连接的(每一个当前层的神经元与下一层的每个神经元都有连接——如果允许任意层的任意神经元连接到任意层去,我们就得到了一个波尔兹曼机(非受限的))。

    标准的RBM中,隐含和可见层的神经元都是二态的(即神经元的激活值只能是服从 伯努力分布 的0或1),不过也存在其它非线性的变种。

    到现在为止,我们已经了解了隐含层中强大的特征探测器——自编码器和RBM,但现在还没有办法有效的去利用这些功能。实际上,上面所用到的这些数据集都是特定的。而我们要找到一些方法来间接的使用这些探测出的特征。好消息是,已经发现这些结构可以通过栈式叠加来实现深度网络。这些网络可以通过贪心法的思想训练,每次训练一层,以克服之前提到在反向传播中梯度消失及过度拟合的问题。

    栈式自编码器

    自编码器的隐含层  t  会作为  t + 1  层的输入层。第一个输入层就是整个网络的输入层。利用贪心法训练每一层的步骤如下:

    1、通过反向传播的方法利用所有数据对第一层的自编码器进行训练( t=1 ,上图中的红色连接部分)。

    2、训练第二层的自编码器  t=2  (绿色连接部分)。由于  t=2  的输入层是  t=1  的隐含层,我们已经不再关心 t=1  的输入层,可以从整个网络中移除。整个训练开始于将输入样本数据赋到  t=1  的输入层,通过前向传播至 t = 2 的输出层。下面t = 2的权重(输入->隐含和隐含->输出)使用反向传播的方法进行更新。t = 2的层和 t=1 的层一样,都要通过所有样本的训练。

    3、对所有层重复步骤1-2(即移除前面自编码器的输出层,用另一个自编码器替代,再用反向传播进行训练)。

    4、步骤1-3被称为预训练,这将网络里的权重值初始化至一个合适的位置。但是通过这个训练并没有得到一个输入数据到输出标记的映射。例如,一个网络的目标是被训练用来识别手写数字,经过这样的训练后还不能将最后的特征探测器的输出(即隐含层中最后的自编码器)对应到图片的标记上去。这样,一个通常的办法是在网络的最后一层(即蓝色连接部分)后面再加一个或多个全连接层。整个网络可以被看作是一个多层的感机机,并使用反向传播的方法进行训练(这步也被称为微调)。

    栈式自编码器,提供了一种有效的预训练方法来初始化网络的权重,这样你得到了一个可以用来训练的 复杂、多层的感知机。

    深度信度网络

    和自编码器一样,我也可以将波尔兹曼机进行栈式叠加来构建深度信度网络(DBN)。

    在本例中,隐含层 RBM  t  可以看作是 RBM  t+1  的可见层。第一个RBM的输入层即是整个网络的输入层,层间贪心式的预训练的工作模式如下:

    1. 通过对比差异法对所有训练样本训练第一个RBM  t=1

    2. 训练第二个RBM  t=1 。由于  t=2  的可见层是  t=1  的隐含层,训练开始于将数据赋至  t=1  的可见层,通过前向传播的方法传至  t=1  的隐含层。然后作为  t=2  的对比差异训练的初始数据。

    3. 对所有层重复前面的过程。

    4. 和栈式自编码器一样,通过预训练后,网络可以通过连接到一个或多个层间全连接的 RBM 隐含层进行扩展。这构成了一个可以通过反向传僠进行微调的多层感知机。

    本过程和栈式自编码器很相似,只是用RBM将自编码器进行替换,并用对比差异算法将反向传播进行替换。

    卷积网络

    卷积网络,一类特殊的对图像识别非常有效的前馈网络。

    我们先定义一个图像滤波器,或者称为一个赋有相关权重的方阵。一个滤波器可以应用到整个图片上,通常可以应用多个滤波器。比如,你可以应用四个6×6的滤波器在一张图片上。然后,输出中坐标(1,1)的像素值就是输入图像左上角一个6×6区域的加权和,其它像素也是如此。

    有了上面的基础,我们来介绍定义出卷积网络的属性:

    卷积层   对输入数据应用若干滤波器。比如图像的第一卷积层使用4个6×6滤波器。对图像应用一个滤波器之后的得到的结果被称为特征图谱(feature map, FM),特征图谱的数目和滤波器的数目相等。如果前驱层也是一个卷积层,那么滤波器应用在FM上,相当于输入一个FM,输出另外一个FM。从直觉上来讲,如果将一个权重分布到整个图像上后,那么这个特征就和位置无关了,同时多个滤波器可以分别探测出不同的特征。

    下采样层  缩减输入数据的规模。例如输入一个32×32的图像,并且通过一个2×2的下采样,那么可以得到一个16×16的输出图像,这意味着原图像上的四个像素合并成为输出图像中的一个像素。实现下采样的方法有很多种,最常见的是最大值合并、平均值合并以及随机合并。

    最后一个下采样层(或卷积层)通常连接到一个或多个全连层,全连层的输出就是最终的输出。

    训练过程通过改进的反向传播实现,将下采样层作为考虑的因素并基于所有值来更新卷积滤波器的权重。

    相关文章

      网友评论

        本文标题:从感知机到深度网络的学习

        本文链接:https://www.haomeiwen.com/subject/xbfwwttx.html