卷积运算2

作者: 庵下桃花仙 | 来源:发表于2019-04-04 22:49 被阅读0次

在MNIST示例中,第一个卷积层接收一个(28,28,1)的特征图,输出(26,26,32)的特征图,即在输入上计算32个过滤器。这32个输出通道,每个通道都包含一个 26X26 的数值网络,它是过滤器对输入的响应图(response map),表示这个过滤器模式在输入中不同位置的相应。
特征图含义:深度轴的每个维度都是一个特征(或过滤器),而2D张量output[:,:,n]是这个过滤器在输入上相应的二维空间图(map)。

相应图概念:某个模式在输入中的不同位置是否存在的二维图.PNG
卷积有两个关键参数定义:
1、从输入中提取图块尺寸:大小通常是 3X3 或 5X5,常用 3X3;
2、输出特征图的深度:卷积所计算的过滤器数量。
Conv2D(output_depth, (window_height, window_width))

卷积的工作原理:

在 3D 输入特征图上滑动(slide)这些 3×3 或 5×5 的窗口,在每个可能的位置停止并提取周围特征的 3D 图块[形状为(window_height, window_width, input_depth)]。然后每个 3D 图块与学到的同一个权重矩阵[叫作卷积核(convolution kernel)]做张量积,转换成形状为 (output_depth,) 的 1D 向量。然后对所有这些向量进行空间重组,使其转换为形状为 (height, width,output_depth) 的 3D 输出特征图。输出特征图中的每个空间位置都对应于输入特征图中的相同位置(比如输出的右下角包含了输入右下角的信息)。举个例子,利用 3×3 的窗口,向量 output[i, j, :] 来自 3D 图块 input[i-1:i+1,j-1:j+1, :]。


卷积的工作原理.PNG

输出的宽度和高度与输入的宽度和高度可能不同,可能因为两个原因:
1、边界效应,可以通过对输入特征图进行填充来抵消;
2、使用了步幅(stride)。
对于 Conv2D 层,可通过 padding 参数补充。“valid”(默认):表示不使用填充(只使用有效窗口位置);“same”:填充后的宽度和高度与输入相同。

相关文章

  • 2020-02-17

    互相关运算与卷积运算 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右...

  • 卷积运算2

    在MNIST示例中,第一个卷积层接收一个(28,28,1)的特征图,输出(26,26,32)的特征图,即在输入上计...

  • 第二次打卡 Task05

    一、卷积神经网络基础 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右...

  • Task7 卷积神经网络

    任务: 卷积运算的定义、动机(稀疏权重、参数共享、等变表示)。一维卷积运算和二维卷积运算。 反卷积(tf.nn.c...

  • Tensorflow学习笔记--CNN

    输入向量----------------------》与卷积核卷积运算----------------------...

  • pytorch框架学习(8)——nn网络层

    @[toc] 1. 卷积层 1.2 1d/2d/3d卷积 卷积运算:卷积核在输入信号(图像)上滑动,相应位置上进行...

  • 卷积运算

    为什么卷积神经网络这么好?要理解 Conv2D 层和 MaxPooling2D 层的作用。 卷积运算 Dense ...

  • DFT与卷积

    利用DFT可以大大加快卷积运算的速度。卷积定理:空间域的卷积运算可以转换为频域的乘法运算。具体实现是将图片转换到频...

  • 学习笔记TF013:卷积、跨度、边界填充、卷积核

    卷积运算,两个输入张量(输入数据和卷积核)进行卷积,输出代表来自每个输入的信息张量。tf.nn.conv2d完成卷...

  • 卷积神经网络

    知识点 卷积运算图像处理中的卷积运算与数学定义中的卷积不太一样,更准确的是指数学中的互相关运算。输入二矩阵通过每个...

网友评论

    本文标题:卷积运算2

    本文链接:https://www.haomeiwen.com/subject/bahciqtx.html