美文网首页
CNN中卷积核与卷积运算的前向推导与推导过程

CNN中卷积核与卷积运算的前向推导与推导过程

作者: 技术烧 | 来源:发表于2017-07-26 20:32 被阅读0次

    CNN神经网络算法是常用的模式识别算法,该算法通过卷积运算将图片特征存储到多个卷积核中,卷积核通过算法的反向传输一步步逼近于图片特征,最常用的反向传导方法是BP反向传导方法,采用最速下降法,将结果误差传递到每一个过程参数中,对于该方法在后面会做专门的介绍,本文主要介绍CNN神经网络中卷积步骤的前向与反向传导过程。

    为何会专门开这个题目来讨论,因为在很多的博文中,只是很随意介绍该算法的过程,更多的是通过抄袭而来,让很多的读者感到困惑,另外,由于matlab中的conv2函数是严格按照卷积运算而来,因此很多人会困惑翻转问题,因此本博文将仔细介绍下整个卷积过程与反向卷积过程。后面将会推出关于卷积意义的探讨。

    1、卷积过程

    根据离散二维卷积公式,有:

    其中A为被卷积矩阵,K为卷积核,B为卷积结果,该公式中,三个矩阵的排序均从0开始,即A矩阵的序号如下所示:

    由于该矩阵的序号排列方式与我们平时的书写方式不同,为了方便,我将上面卷积公式改写成下面的公式,后面的分析也用该公式进行分析:

    该公式所用矩阵就是我们所熟悉的从A11开始的矩阵了:

    现在对于上面卷积过程进行分析:我们用来做例子的A矩阵为m*m(3*3)二维矩阵,K为n*n(2*2)的二维矩阵。

    卷积过程先将卷积核旋转180°,被卷积矩阵扩展到(m+n)*(m+n)大小,将扩展部分用0代替,其序号用负数代替,即如下所示:

    即有B11=A00*K22+A01*K21+A10*K12+A11*K11(1)

    同理:

    B12=A01*K22+A02*K21+A11*K12+A12*K11

    B13=A02*K22+A03*K21+A12*K12+A13*K11

    B14=A03*K22+A04*K21+A13*K12+A14*K11

    B21=A10*K22+A11*K21+A20*K12+A21*K11

    B22=A11*K22+A12*K21+A21*K12+A22*K11

    B23=A12*K22+A13*K21+A22*K12+A23*K11

    B24=A13*K22+A14*K21+A23*K12+A24*K11

    B31=A20*K22+A21*K21+A30*K12+A31*K11

    B32=A21*K22+A22*K21+A31*K12+A32*K11

    B33=A22*K22+A23*K21+A32*K12+A33*K11

    B34=A23*K22+A24*K21+A33*K12+A34*K11

    B41=A30*K22+A31*K21+A40*K12+A41*K11

    B42=A31*K22+A32*K21+A41*K12+A42*K11

    B43=A32*K22+A33*K21+A42*K12+A43*K11

    B44=A33*K22+A34*K21+A43*K12+A44*K11

    以上便是整个卷积计算过程,在Matlab中可用conv2函数进行卷积计算:

    B=conv2(A,K,’full’);

    Conv2函数的第一个输入参数为被卷积矩阵,第二个为卷积核,第三个参数可输入卷积输出形式,总共有三个:‘full’,‘same’和‘valid’,用下面的例子便可以看出这三个的区别:

    A=[1 2 3

    4 5 6

    7 8 9];

    K=[1 2

    3 4];

    B=conv2(A,K,'full')

    C=conv2(A,K,'same')

    D=conv2(A,K,'valid')

    输出结果为:

    B =

    1     4    7    6

    7    23   33   24

    19  53   63  42

    21   52  59   36

    C =

    23   33   24

    53   63   42

    52   59   36

    D =

    23   33

    53   63

    ‘full’的输出结果为n+m-1,’same’的输出结果为m,’valid’的输出结果为m-n+1。在CNN算法的前向过程,其卷积是’valid’型卷积,因此我们只对’valid’型卷积的反向推导过程进行推导,另外两种类型的推导类似。

    2、卷积过程的反向推导

    假设最终误差E传递到B处的误差为C,B11的误差为C11,B12的误差为C12......,当其前向运算为’valid’类型时则其误差矩阵可表示为以下C矩阵:

    (a)对A矩阵进行求导

    根据矩阵传递规则,有下面传递性质:

    现将上面公式组(1)进行组合,举例对A22进行求导:

    B11+B12+B13+B14+B21+B22+B23+B24+B31+B32+B33+B34+B41+B42+B43+B44=A00*K22+A01*K21+A10*K12+A11*K11+A01*K22+A02*K21+A11*K12+A12*K11+A02*K22+A03*K21+A12*K12+A13*K11+A03*K22+A04*K21+A13*K12+A14*K11+A10*K22+A11*K21+A20*K12+A21*K11+A11*K22+A12*K21+A21*K12+A22*K11+A12*K22+A13*K21+A22*K12+A23*K11+A13*K22+A14*K21+A23*K12+A24*K11+A20*K22+A21*K21+A30*K12+A31*K11+A21*K22+A22*K21+A31*K12+A32*K11+A22*K22+A23*K21+A32*K12+A33*K11+A23*K22+A24*K21+A33*K12+A34*K11+A30*K22+A31*K21+A40*K12+A41*K11+A31*K22+A32*K21+A41*K12+A42*K11+A32*K22+A33*K21+A42*K12+A43*K11

    E=C22+C23+C32+C33

    则有:

    同理,可对A矩阵其他成员进行求导,可得出规律是:矩阵A的误差是矩阵B的误差C与卷积核K’(K’是卷积核K旋转180°的矩阵)的卷积。

    因此当matlab中,输入的前向函数为:B=conv2(A,K,’valid’);

    其对A误差的反向传递为:

    (b)对卷积核K矩阵进行求导

    与对A求导原理相同,现对K11进行求导如下:

    则有:

    K的其他成员的求导同样可以用该方式求取,为了方便我们观察,我们再对K22求导:

    我们可以总结规律:

    当matlab中,输入的前向函数为:

    B=conv2(A,K,’valid’);

    其对K的反向函数为:

    由于网上多个编辑的版本,导致有时候在是否转动180°的问题上犯困难,因此

    应为其前向与反向统一公式

    另外,我也给出了另外一种习惯的前向反向公式:

    当个输入前向函数为:

    B=conv2(A,rot90(K,2),’valid’);

    其对A的反向函数为:

    对K的反向函数为:

    若有matlab编程或者算法研究等技术需求,可加QQ(3141104423)或者加QQ群(479888200)交流平台

    相关文章

      网友评论

          本文标题:CNN中卷积核与卷积运算的前向推导与推导过程

          本文链接:https://www.haomeiwen.com/subject/rhirhxtx.html