美文网首页
深度学习报告(中)

深度学习报告(中)

作者: 一悟 | 来源:发表于2019-01-31 14:43 被阅读0次

    循环神经网络(RNN)

    在前面的文章中,我们介绍了卷积神经网络。但是都只能单独的取一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。比如,当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列;当我们处理视频的时候,我们也不能只单独的去分析每一帧,而要分析这些帧连接起来的整个序列。这时,就需要用到深度学习领域中另一类非常重要神经网络:循环神经网络(RNN)。

    语言模型

    RNN是在自然语言处理领域中最先被用起来的,比如,RNN可以为语言模型来建模。那么,什么是语言模型呢?

    我们可以和电脑玩一个游戏,我们写出一个句子前面的一些词,然后,让电脑帮我们写下接下来的一个词。比如下面这句:

    我昨天上学迟到了,老师批评了____。

    我们给电脑展示了这句话前面这些词,然后,让电脑写下接下来的一个词。在这个例子中,接下来的这个词最有可能是『我』,而不太可能是『小明』,甚至是『吃饭』。

    语言模型就是这样的东西:给定一个一句话前面的部分,预测接下来最有可能的一个词是什么。

    语言模型是对一种语言的特征进行建模,它有很多很多用处。比如在语音转文本(STT)的应用中,声学模型输出的结果,往往是若干个可能的候选词,这时候就需要语言模型来从这些候选词中选择一个最可能的。当然,它同样也可以用在图像到文本的识别中(OCR)。

    使用RNN之前,语言模型主要是采用N-Gram。N可以是一个自然数,比如2或者3。它的含义是,假设一个词出现的概率只与前面N个词相关。我们以2-Gram为例。首先,对前面的一句话进行切词:

    我 昨天 上学 迟到 了 ,老师 批评 了 ____。

    如果用2-Gram进行建模,那么电脑在预测的时候,只会看到前面的『了』,然后,电脑会在语料库中,搜索『了』后面最可能的一个词。不管最后电脑选的是不是『我』,我们都知道这个模型是不靠谱的,因为『了』前面说了那么一大堆实际上是没有用到的。如果是3-Gram模型呢,会搜索『批评了』后面最可能的词,感觉上比2-Gram靠谱了不少,但还是远远不够的。因为这句话最关键的信息『我』,远在9个词之前!

    有人就会思考我们可以继续提升N的值呀,比如4-Gram、5-Gram.......。实际上,这个想法是没有实用性的。因为我们想处理任意长度的句子,N设为多少都不合适;另外,模型的大小和N的关系是指数级的,4-Gram模型就会占用海量的存储空间。

    所以,该轮到RNN出场了,RNN理论上可以往前看(往后看)任意多个词。

    循环神经网络的原理

    循环神经网络种类繁多,我们先从最简单的基本循环神经网络开始吧。

    基本循环神经网络

    下图是一个简单的循环神经网络如,它由输入层、一个隐藏层和一个输出层组成:

    如果把上面有W的那个带箭头的圈去掉,它就变成了最普通的全连接神经网络。x是一个向量,它表示输入层的值(这里面没有画出来表示神经元节点的圆圈);s是一个向量,它表示隐藏层的值(这里隐藏层面画了一个节点,你也可以想象这一层其实是多个节点,节点数与向量s的维度相同);U是输入层到隐藏层的权重矩阵看看我们是怎样用矩阵来表示全连接神经网络的计算的);o也是一个向量,它表示输出层的值;V是隐藏层到输出层的权重矩阵。那么,现在我们来看看W是什么。循环神经网络隐藏层的值s不仅仅取决于当前这次的输入x,还取决于上一次隐藏层的值s。权重矩阵 W就是隐藏层上一次的值作为这一次的输入的权重。

    如果我们把上面的图展开,循环神经网络也可以画成下面这个样子:


    现在看上去就比较清楚了,这个网络在t时刻接收到输入
    式1是输出层的计算公式,输出层是一个全连接层,也就是它的每个节点都和隐藏层的每个节点相连。V是输出层的权重矩阵,g是激活函数。式2是隐藏层的计算公式,它是循环层。U是输入x的权重矩阵,W是上一次的值
    从上面可以看出,循环神经网络的输出值
    当遇到这种从未来穿越回来的场景时,难免处于懵逼的状态。不过我们还是可以用屡试不爽的老办法:先分析一个特殊场景,然后再总结一般规律。我们先考虑上图中,
    双向循环网络(Bi-directional RNN)是现阶段自然语言处理和语音分析中的重要模型。开发双向循环网络的原因是语言/语音的构成取决于上下文,即“现在”依托于“过去”和“未来”单向的循环网络仅着重于从“过去”推出“现在”,而无法对“未来”的依赖性有效的建模

    深度循环神经网络

    前面我们介绍的循环神经网络只有一个隐藏层,我们当然也可以堆叠两个以上的隐藏层,这样就得到了深度循环神经网络。如下图所示:


    我们把第i个隐藏层的值表示为

    循环神经网络的训练

    循环神经网络的训练算法:BPTT

    BPTT算法是针对循环层的训练算法,它的基本原理和BP算法是一样的,也包含同样的三个步骤:

    1. 前向计算每个神经元的输出值;
    2. 反向计算每个神经元的误差项值,它是误差函数E对神经元j的加权输入的偏导数;
    3. 计算每个权重的梯度。

    最后再用随机梯度下降算法更新权重。

    循环层如下图所示:

    前向计算

    使用前面的式2对循环层进行前向计算:


    注意,上面的

    在这里我们用手写体字母表示向量的一个元素,它的下标表示它是这个向量的第几个元素,它的上标表示第几个时刻。例如,s_{j}^{t}表示向量s的第j个元素在t时刻的值。u_{ji}表示输入层第i个神经元到循环层第j个神经元的权重。w_{ji}表示循环层第t-1时刻的第i个神经元到循环层第t个时刻的第j个神经元的权重。
    我们用向量net_{t}表示神经元在t时刻的加权输入,因为:



    循环层net^{l}加权输入与上一层的加权输入

    RNN的梯度爆炸和消失问题

    不幸的是,实践中前面介绍的几种RNNs并不能很好的处理较长的序列。一个主要的原因是,RNN在训练中很容易发生梯度爆炸和梯度消失,这导致训练时梯度不能在较长序列中一直传递下去,从而使RNN无法捕捉到长距离的影响。

    为什么RNN会产生梯度爆炸和消失问题呢?我们接下来将详细分析一下原因。我们根据式3可得:


    上式的

    我们可以看到,误差项
    假设某轮训练中,各时刻的梯度以及最终的梯度之和如下图:

    我们就可以看到,从上图的t-3时刻开始,梯度已经几乎减少到0了。那么,从这个时刻开始再往之前走,得到的梯度(几乎为零)就不会对最终的梯度值有任何贡献,这就相当于无论t-3时刻之前的网络状态h是什么,在训练中都不会对权重数组W的更新产生影响,也就是网络事实上已经忽略了t-3时刻之前的状态。这就是原始RNN无法处理长距离依赖的原因。

    既然找到了问题的原因,那么我们就能解决它。从问题的定位到解决,科学家们大概花了7、8年时间。终于有一天,Hochreiter和Schmidhuber两位科学家发明出长短时记忆网络,一举解决这个问题。

    其实,长短时记忆网络的思路比较简单。原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。那么,假如我们再增加一个状态,即c,让它来保存长期的状态,那么问题不就解决了么?如下图所示:


    新增加的状态c,称为单元状态(cell state)。我们把上图按照时间维度展开:
    上图仅仅是一个示意图,我们可以看出,在t时刻,LSTM的输入有三个:当前时刻网络的输入值、上一时刻LSTM的输出值、以及上一时刻的单元状态;LSTM的输出有两个:当前时刻LSTM输出值、和当前时刻的单元状态。注意、、都是向量。 LSTM的关键,就是怎样控制长期状态c。在这里,LSTM的思路是使用三个控制开关。第一个开关,负责控制继续保存长期状态c;第二个开关,负责控制把即时状态输入到长期状态c;第三个开关,负责控制是否把长期状态c作为当前的LSTM的输出。三个开关的作用如下图所示: image

    接下来,我们要描述一下,输出h和单元状态c的具体计算方法。

    长短时记忆网络的前向计算

    前面描述的开关是怎样在算法中实现的呢?这就用到了门(gate)的概念。门实际上就是一层全连接层,它的输入是一个向量,输出是一个0到1之间的实数向量。假设W是门的权重向量,b是偏置项,那么门可以表示为:

    门的使用,就是用门的输出向量按元素乘以我们需要控制的那个向量。因为门的输出是0到1之间的实数向量,那么,当门输出为0时,任何向量与之相乘都会得到0向量,这就相当于啥都不能通过;输出为1时,任何向量与之相乘都不会有任何改变,这就相当于啥都可以通过。因为\sigma(也就是sigmoid函数)的值域是(0,1),所以门的状态都是半开半闭的。
    LSTM用两个门来控制单元状态c的内容,一个是遗忘门(forget gate),它决定了上一时刻的单元状态c_{t-1}有多少保留到当前时刻c_{t};另一个是输入门(input gate),它决定了当前时刻网络的输入x_{t}有多少保存到单元状态c_{t}。LSTM用输出门(output gate)来控制单元状态c_{t}有多少输出到LSTM的当前输出值h_{t}
    我们先来看一下遗忘门:


    下图显示了遗忘门的计算: 12.jpg
    接下来看看输入门:
    上式中, image
    接下来,我们计算用于描述当前输入的单元状态,它是根据上一次的输出和本次输入来计算的:

    下图是
    现在,我们计算当前时刻的单元状态 4124124.jpg

    符号o表示按元素乘。下图是c_{t}的计算:

    这样,我们就把LSTM关于当前的记忆\tilde{c}_{t}和长期的记忆c_{t-1}组合在一起,形成了新的单元状态c_{t}。由于遗忘门的控制,它可以保存很久很久之前的信息,由于输入门的控制,它又可以避免当前无关紧要的内容进入记忆。下面,我们要看看输出门,它控制了长期记忆对当前输出的影响:


    下图表示输出门的计算:

    LSTM最终的输出,是由输出门和单元状态共同确定的:


    下图表示LSTM最终输出的计算:

    式1式6就是LSTM前向计算的全部公式。至此,我们就把LSTM前向计算讲完了。

    生成对抗网络(Generative Adversarial Network,简称GAN)

    ** GAN的基本结构**

    GAN的主要结构包括一个生成器G(Generator)和一个判别器D(Discriminator)。

    下面我们举一个手写字的例子来进行进一步窥探GAN的结构。


    图三 GAN基本结构

    我们现在拥有大量的手写数字的数据集,我们希望通过GAN生成一些能够以假乱真的手写字图片。主要由如下两个部分组成:

    1. 定义一个模型来作为生成器(图三中蓝色部分Generator),能够输入一个向量,输出手写数字大小的像素图像。
    2. 定义一个分类器来作为判别器(图三中红色部分Discriminator)用来判别图片是真的还是假的(或者说是来自数据集中的还是生成器中生成的),输入为手写图片,输出为判别图片的标签。
    GAN的训练方式

    前面已经定义了一个生成器(Generator)来生成手写数字,一个判别器(Discrimnator)来判别手写数字是否是真实的,和一些真实的手写数字数据集。那么我们怎样来进行训练呢?

    关于生成器

    对于生成器,输入需要一个n维度向量,输出为图片像素大小的图片。因而首先我们需要得到输入的向量。

    Tips: 这里的生成器可以是任意可以输出图片的模型,比如最简单的全连接神经网络,又或者是反卷积网络等。这里大家明白就好。

    这里输入的向量我们将其视为携带输出的某些信息,比如说手写数字为数字几,手写的潦草程度等等。由于这里我们对于输出数字的具体信息不做要求,只要求其能够最大程度与真实手写数字相似(能骗过判别器)即可。所以我们使用随机生成的向量来作为输入即可,这里面的随机输入最好是满足常见分布比如均值分布,高斯分布等。

    Tips: 假如我们后面需要获得具体的输出数字等信息的时候,我们可以对输入向量产生的输出进行分析,获取到哪些维度是用于控制数字编号等信息的即可以得到具体的输出。而在训练之前往往不会去规定它。

    关于判别器

    对于判别器不用多说,往往是常见的判别器,输入为图片,输出为图片的真伪标签。

    Tips: 同理,判别器与生成器一样,可以是任意的判别器模型,比如全连接网络,或者是包含卷积的网络等等。

    如何训练

    上面进一步说明了生成器和判别器,接下来说明如何进行训练。

    基本流程如下:

    • 初始化判别器D的参数 \theta _{d}和生成器G的参数\theta _{g}

    • 从真实样本中采m个样本\left \{ x^{1} , x^{2},.... x^{m} \right \},从先验分布噪声中采样m个噪声样本\left \{ z^{1} , z^{2},.... z^{m} \right \}并通过生成器获取m个生成样本\left \{ x^{1} , x^{2},.... x^{m} \right \}并通过生成器获取m个生成样本\left \{ \tilde{x^{1}} , \tilde{x^{2}} ,.... \tilde{x^{m}} \right \}。固定生成器G,训练判别器D尽可能好地准确判别真实样本和生成样本,尽可能大地区分正确样本和生成的样本。

    • 循环k次更新判别器之后,使用较小的学习率来更新一次生成器的参数,训练生成器使其尽可能能够减小生成样本与真实样本之间的差距,也相当于尽量使得判别器判别错误。

    • 多次更新迭代之后,最终理想情况是使得判别器判别不出样本来自于生成器的输出还是真实的输出。亦即最终样本判别概率均为0.5。

    Tips: 之所以要训练k次判别器,再训练生成器,是因为要先拥有一个好的判别器,使得能够教好地区分出真实样本和生成样本之后,才好更为准确地对生成器进行更新。更直观的理解可以参考下图:

    图四 生成器判别器与样本示意图
    注:图中的黑色虚线表示真实的样本的分布情况,蓝色虚线表示判别器判别概率的分布情况,绿色实线表示生成样本的分布。

    Z 表示噪声,Zx表示通过生成器之后的分布的映射情况。

    我们的目标是使用生成样本分布(绿色实线)去拟合真实的样本分布(黑色虚线),来达到生成以假乱真样本的目的。

    可以看到在(a)状态处于最初始的状态的时候,生成器生成的分布和真实分布区别较大,并且判别器判别出样本的概率不是很稳定,因此会先训练判别器来更好地分辨样本。
    通过多次训练判别器来达到(b)样本状态,此时判别样本区分得非常显著和良好。然后再对生成器进行训练。
    训练生成器之后达到(c)样本状态,此时生成器分布相比之前,逼近了真实样本分布。
    经过多次反复训练迭代之后,最终希望能够达到(d)状态,生成样本分布拟合于真实样本分布,并且判别器分辨不出样本是生成的还是真实的(判别概率均为0.5)。也就是说我们这个时候就可以生成出非常真实的样本啦,目的达到。

    3. 训练相关理论基础

    一、GAN原理介绍

    说到GAN第一篇要看的paper当然是Ian Goodfellow大牛的Generative Adversarial Networks,这篇paper算是这个领域的开山之作。

    GAN的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和D(Discriminator)。正如它的名字所暗示的那样,它们的功能分别是:

    • G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。

    • D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片。

    在训练过程中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D。而D的目标就是尽量把G生成的图片和真实的图片分别开来。这样,G和D构成了一个动态的“博弈过程”。

    最后博弈的结果是什么?在最理想的状态下,G可以生成足以“以假乱真”的图片G(z)。对于D来说,它难以判定G生成的图片究竟是不是真实的,因此D(G(z)) = 0.5。

    这样我们的目的就达成了:我们得到了一个生成式的模型G,它可以用来生成图片。

    以上只是大致说了一下GAN的核心原理,如何用数学语言描述呢?这里直接摘录论文里的公式:

    GAN学习指南:从原理入门到制作生成Demo,总共分几步?

    简单分析一下这个公式:

    • 整个式子由两项构成。x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片。

    • D(x)表示D网络判断真实图片是否真实的概率(因为x就是真实的,所以对于D来说,这个值越接近1越好)。而D(G(z))是D网络判断G生成的图片的是否真实的概率。

    • G的目的:上面提到过,D(G(z))是D网络判断G生成的图片是否真实的概率,G应该希望自己生成的图片“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D, G)会变小。因此我们看到式子的最前面的记号是min_G。

    • D的目的:D的能力越强,D(x)应该越大,D(G(x))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大(max_D)

    下面这幅图片很好地描述了这个过程:

    GAN学习指南:从原理入门到制作生成Demo,总共分几步?

    那么如何用随机梯度下降法训练D和G?论文中也给出了算法:

    GAN学习指南:从原理入门到制作生成Demo,总共分几步?

    这里红框圈出的部分是我们要额外注意的。第一步我们训练D,D是希望V(G, D)越大越好,所以是加上梯度(ascending)。第二步训练G时,V(G, D)越小越好,所以是减去梯度(descending)。整个训练过程交替进行。

    4. 总结

    本文大致介绍了GAN的整体情况。但是对于GAN实际上还有更多更完善的理论相关描述,进一步了解可以看相关的论文。并且在GAN一开始提出来的时候,实际上针对于不同的情况也有存在着一些不足,后面也陆续提出了不同的GAN的变体来完善GAN。

    通过一个判别器而不是直接使用损失函数来进行逼近,更能够自顶向下地把握全局的信息。比如在图片中,虽然都是相差几像素点,但是这个像素点的位置如果在不同地方,那么他们之间的差别可能就非常之大。

    论文中的GAN算法流程

    比如上图中的两组生成样本,对应的目标为字体2,但是图中上面的两个样本虽然只相差一个像素点,但是这个像素点对于全局的影响是比较大的,但是单纯地去使用使用损失函数来判断,那么他们的误差都是相差一个像素点,而下面的两个虽然相差了六个像素点的差距(粉色部分的像素点为误差),但是实际上对于整体的判断来说,是没有太大影响的。但是直接使用损失函数的话,却会得到6个像素点的差距,比上面的两幅图差别更大。而如果使用判别器,则可以更好地判别出这种情况(不会拘束于具体像素的差距)。

    总之GAN是一个非常有意思的东西,现在也有很多相关的利用GAN的应用,比如利用GAN来生成人物头像,用GAN来进行文字的图片说明等等。后面我也会使用GAN来做一些简单的实验来帮助进一步理解GAN。

    本来拟定两篇文章来介绍,没想到篇幅有点长,还是决定分为三篇来讲。最后一篇文章讲一下自编码和玻尔兹曼机两种神经网络算法,以及反向神经传播算法的工作原理以及神经网络的优化。

    相关文章

      网友评论

          本文标题:深度学习报告(中)

          本文链接:https://www.haomeiwen.com/subject/ejvajqtx.html