美文网首页
多通道的多个卷积核

多通道的多个卷积核

作者: 听风1996 | 来源:发表于2018-03-22 14:32 被阅读795次

下图展示了在四个通道上的卷积操作,有两个卷积核,生成两个通道。其中需要注意的是,四个通道上每个通道对应一个卷积核,先将w2忽略,只看w1,那么在w1的某位置(i,j)处的值,是由四个通道上(i,j)处的卷积结果相加然后再取激活函数值得到的。 所以最后得到两个feature map, 即输出层的卷积核核个数为 feature map 的个数。



所以,在上图由4个通道卷积得到2个通道的过程中,参数的数目为4×2×2×2个,其中4表示4个通道,第一个2表示生成2个通道,最后的2×2表示卷积核大小。
下面是常见模型, 理解一下 每层feature map 个数,为上一层卷积核的个数

下图即为Alex的CNN结构图。需要注意的是,该模型采用了2-GPU并行结构,即第1、2、4、5卷积层都是将模型参数分为2部分进行训练的。在这里,更进一步,并行结构分为数据并行与模型并行。数据并行是指在不同的GPU上,模型结构相同,但将训练数据进行切分,分别训练得到不同的模型,然后再将模型进行融合。而模型并行则是,将若干层的模型参数进行切分,不同的GPU上使用相同的数据进行训练,得到的结果直接连接作为下一层的输入。



上图模型的基本参数为:

输入:224×224大小的图片,3通道
第一层卷积:5×5大小的卷积核96个,每个GPU上48个。
第一层max-pooling:2×2的核。
第二层卷积:3×3卷积核256个,每个GPU上128个。
第二层max-pooling:2×2的核。
第三层卷积:与上一层是全连接,3*3的卷积核384个。分到两个GPU上个192个。
第四层卷积:3×3的卷积核384个,两个GPU各192个。该层与上一层连接没有经过pooling层。
第五层卷积:3×3的卷积核256个,两个GPU上个128个。
第五层max-pooling:2×2的核。
第一层全连接:4096维,将第五层max-pooling的输出连接成为一个一维向量,作为该层的输入。
第二层全连接:4096维
Softmax层:输出为1000,输出的每一维都是图片属于该类别的概率。

相关文章

  • 多通道的多个卷积核

    下图展示了在四个通道上的卷积操作,有两个卷积核,生成两个通道。其中需要注意的是,四个通道上每个通道对应一个卷积核,...

  • 卷积神经网络的常见问题

    关于多通道 2D 卷积运算 对于一个卷积核,当输入通道有多个时,由于我们对各个通道的结果做了累加,所以不论输入通道...

  • mxnet:卷积层的多输入通道和多输出通道

    1.卷积层的多输入通道 当输入数据含有多个通道时,我们要构造一个与输入数据的通道数相等的卷积核,从而能够与含多通道...

  • 卷积、卷积核的维数、尺寸

    一、卷积核的维数 1、二维卷积核(2d) 2D卷积操作如图1所示,为了解释的更清楚,分别展示了单通道和多通道的操作...

  • 容易忘记的机器学习相关概念

    一、 关于w和b的数量计算。 1、卷积层 w = 卷积核 * 卷积核 * 上一层深度(通道数) b = 通道数 2...

  • 卷积神经网络基础知识

    卷积核的厚度=被卷积的图像的通道数卷积核的个数=卷机操作后输出的通道数 图片卷积输出大小计算公式:N=(W-F+2...

  • Attention

    Attention Multi-Head Attention:类比多个卷积核的方式,将 Attention 重复多...

  • Tensorflow卷积实现原理+手写python代码实现卷积

    从一个通道的图片进行卷积生成新的单通道图的过程很容易理解,对于多个通道卷积后生成多个通道的图理解起来有点抽象。本文...

  • TensorFlow从头迈步W6.2-卷积核

    多个卷积核的作用卷积核就是滤波器,经过卷积操作会得到不同的特征图。对不同的特征进行采样。

  • 不同卷积核大小的总结

    不同卷积核大小:1、 1*1 卷积核的作用 实现跨通道的交互和信息整合 增加非线性特性 减少模型参数,降低计算量 ...

网友评论

      本文标题:多通道的多个卷积核

      本文链接:https://www.haomeiwen.com/subject/dljaqftx.html