美文网首页
卷积神经网络CNN(Convolutional Neural N

卷积神经网络CNN(Convolutional Neural N

作者: GarveyLian | 来源:发表于2018-04-02 19:51 被阅读93次

    卷积神经网络笔记


    一、卷积神经网络的基本卷积运算

    cnncal.png

    上图计算过程为,首先我们可以将右边进行卷积的可以称为过滤器也可以叫做核,覆盖到左边第一个区域,然后分别按照对应位置相乘再相加,3*1+1*1+2*1+0*0+0*0+0*0+1*(-1)+8*(-1)+2*(-1)=-5;
    按照上述的计算方法逐步按右移一个步长(步长可以设定为1,2,...等),然后按往下移,逐渐计算相应的值,得出最终的值。

    二、卷积网络如何进行图像的特征提取

    by.png

    如上图显示,对于第一个图像矩阵对应的图,一边是白色,一边是黑色,那么中间就会存在一个垂直的边缘,我们可以选择一个垂直边缘检测过滤器,如乘法右边的矩阵,那么两者做卷积后得出的图会显示如等号右边的结果矩阵对应的灰度图中间会有一个白色的中间带,也就是检测出来的边缘,那为什么感觉中间边缘带会比较宽呢?而不是很细的一个局域呢?原因是我们输入的图像只有6*6,过于小了,如果我们选择输出更大的尺寸的图,那么结果来说就是相对的一个细的边缘检测带,也就将我们的垂直边缘特征提取出来了。
    上述都是人工选择过滤器的参数,随着神经网络的发展我们可以利用反向传播算法来学习过滤器的参数


    paraw.png

    我们可以将卷积的顾虑器的数值变成一个参数,通过反向传播算法去学习,这样学到的过滤器或者说卷积核就能够识别到很多的特征,而不是依靠手工选择过滤器。

    三、卷积的基本操作

    -padding操作,卷积经常会出现两个问题:
    1.每经过一次卷积图像都会缩小,如果卷积层很多的话,后面的图像就缩的很小了;
    2.边缘像素利用次数只有一次,很明显少于位于中间的像素,因此会损失边缘图像信息。
    为了解决上述的问题,我们可以在图像边缘填充像素,也就是padding操作了。

    padding.png

    如果我们设置在图像边缘填充的像素数为p,那么经过卷积后的图像是:(n+2p-f+1)x(n+2p-f+1).
    如何去选择p呢
    通常有两种选择:
    -Valid:也就是说不填充操作(no padding),因此如果我们有nxn的图像,fxf的过滤器,那么我们进行卷积nxnfxf=(n-f+1)x(n-f+1)的输出图像;
    -Same:也就是填充后是输出图像的大小的与输入相同,同样就有(n+2p)x(n+2p)
    fxf=nxn,那么可以算,n+2p-f+1=n,得到p=(f-1)/2。
    通常对于过滤器的选择有一个默认的准则就是选择过滤器的尺寸是奇数的过滤器。
    -卷积步长设置(Strided COnvolution)
    卷积步长也就是我们进行卷积操作时,过滤器每次移动的步长,上面我们介绍的卷积操作步长默认都是1,也就是说每次移动过滤器时我们是向右移动一格,或者向下移动一格。
    但是我们可以对卷积进行步长的设置,也就是我们能够对卷积移动的格数进行设置。同样假如我们的图像是nxn,过滤器是fxf,padding设置是p,步长strided设置为s,那么我们进行卷积操作后输出的图像为((n+2p-f)/s+1)x((n+2p-f)/s+1),那么这样就会出现一个问题,如果计算结果不是整数怎么办?

    strided.png

    一般是选择向下取整,也就是说明,只有当我们的过滤器完全在图像上能够覆盖时才对它进行计算,这是一个惯例。
    实际上上述所述的操作在严格数学角度来说不是卷积的定义,卷积的定义上我们计算的时候在移动步长之前也就是对应元素相乘之前是需要对卷积核或者说我们的过滤器进行镜像操作的,经过镜像操作后再把对应元素进行相乘这才是严格意义上的卷积操作,在数学角度上来说这个操作不算严格的卷积操作应该是属于互相关操作,但是在深度学习领域中,大家按照惯例都省略了反转操作,也把这个操作叫做卷积操作

    四、对三维输入的图像进行卷积

    我们知道彩色图像有RGB三个通道,因此对于输入来说是一个三维的输入,那么对三维输入的图像如何进行卷积操作呢?


    立体运算.png

    例子,如上图我们输入图像假设为6×6×3,3代表有RGB三个通道channel,或者可以叫depth深度,过滤器的选择为3×3×3,其中需要规定的是,顾虑器的channel必须与输入图像的channel相同,长宽没有限制,那么计算过程是,我们将过滤器的立体覆盖在输入,这样对应的27个数对应相乘后相加得到一个数,对应到我们的输出,因此这样的方式进行卷积后我们得出的输出层为4×4×1。如果我们有多个过滤器,比如我们分别用两个过滤器一个提取垂直特征,一个提取水平特征,那么输出图4×4×2 。也就是代表我们输出的深度或者说通道与过滤器的个数是相等的。


    卷积维数过程.png
    输出的深度与过滤器或者说卷积核个数相等。

    五、卷积网络的常用表示标记

    第l层的卷积标记如下:


    nonation.png

    加入我们的过滤器是3×3×3规格的,如果我们设定10个过滤器,那么需要学习的参数总数为每个过滤器为27个参数然后加上一个偏差bias那么每个过滤器的参数为28个,所以十个过滤器的参数为280个。从这里也就可以看出,不管我们输入的图片大小是多大,我们都只需要计算这些参数,因此参数共享也就很容易理解了。


    para.png
    需要学习的参数为权重与偏差值。

    六、卷积网络的例子

    exam_con.jpg
    如上述画出的计算过程所示,第一层为我们的输入层,因此其对应为X,然后有图片大小与通道数,逐步进行选择过滤器规则与个数,最后是将特征展开为一个一维向量,输入到逻辑斯特回归或者softmax层进行预测。这个就是一个典型的深度的卷积网络模型,一般有一个规律,就是每一层的输出值的长与宽的维度会随着层数的增加而减小,但是通道数则会增加。
    网络的设计中有很多的超参数,比如过滤器的维数,网络的层数,因此有需要我们去看经典的神经网络结构。

    七、池化层介绍

    为了缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性,我们经常会使用池化层。池化层的计算方式与卷积类似,只是我们需要对每一个通道都进行池化操作。
    池化的方式一般有两种:Max Pooling和Average Pooling。


    Pooling_max.png

    上面为Max Pooling,那么计算方法与卷积类似,首先设定超参数比如过滤器的大小与步长,然后覆盖到对应格子上面,用最大值取代其值作为输出的结果,例如上图为过滤器选择2×2,步长选择为2,因此输出就是2×2的维度,每个输出格子都是过滤器对应维度上输入的最大值。如果为平均池化,那么就是选择其间的平均值作为输出的值。
    因此从上面的过程我们看到,通过池化操作能够缩小模型,同时能让特征值更加明显,也就提高了提取特征的鲁棒性。

    相关文章

      网友评论

          本文标题:卷积神经网络CNN(Convolutional Neural N

          本文链接:https://www.haomeiwen.com/subject/eaebcftx.html