美文网首页
关于为什么CNN后面的层通道数多,以及为什么前面的层W数值偏大

关于为什么CNN后面的层通道数多,以及为什么前面的层W数值偏大

作者: CodePlayHu | 来源:发表于2018-07-31 10:55 被阅读0次

一般训练好的CNN,会出现前面的层的权重w矩阵中的数值普遍大于后面层中w数值,即使是有BN层,这种情况依然存在。
这种情况我们先看下w更新的公式,根据梯度下降算法,w=w-dw,其中dw表示梯度,那么只要梯度消失的问题不彻底解决,前面层的梯度就会比较小,当几个epoch更新之后,前面层梯度不再更新,而后面层的权重仍在下降,导致最后的w值域不同。(这里有个问题,如果w初始化的特别小,还会出现这个问题吗?)
而为了防止后面层的权值过小导致后面层的输出值整体过小,设计者通过增加后面层的通道数来使加权累加后的数值仍然不会太小。

相关文章

  • 关于为什么CNN后面的层通道数多,以及为什么前面的层W数值偏大

    一般训练好的CNN,会出现前面的层的权重w矩阵中的数值普遍大于后面层中w数值,即使是有BN层,这种情况依然存在。这...

  • 容易忘记的机器学习相关概念

    一、 关于w和b的数量计算。 1、卷积层 w = 卷积核 * 卷积核 * 上一层深度(通道数) b = 通道数 2...

  • 2020-09-24 CNN 神经网络结构笔记(一)

    CNN 的结构 包括 输入层,若干的卷积层+ReLU激活函数,若干的池化层,DNN全连接层,以及最后的用Softm...

  • 换个角度理解全连接层

    一、FC 层的作用 简单来说,以 CNN 为例,FC 层之前的层的作用一般是提取特征,FC 层的作用是分类。原始数...

  • Shufflenet V2中的结论

    1 卷积层的输入输出特征通道数对MAC指标的影响。 结论:卷积层的输入和输出特征通道数相等时MAC最小,此时模型速...

  • cnn-cs231n随手记

    cnn笔记提要 输入层 卷积层(特征提取输入大小:W1 * H1 * D1指定超参数:K:卷积层深度 F:感受野(...

  • 2018-04-09 第二周

    CNN层次分析 简介cnn: 典型的深度学习模型就是很深层的神经网络,包含多个隐含层,多隐层的神经网络很难直接使用...

  • CNN层和特征可视化

    CNN结构 CNN图层 VGG-16 CNN由处理视觉信息的层组成。CNN首先接收输入图像,然后将其传递通过这些层...

  • 炒鸡煎蛋通过栗子理解React+Redux程序

    1.为什么使用React还需要使用别的框架来搭配? React的核心是使用组件定义界面的表现,是一个View层的前...

  • CNN——卷积层

    CNN的组成 这个最简单的卷积神经网络说到底,终究是起到一个分类器的作用 卷积层负责提取特征,采样层负责特征选择,...

网友评论

      本文标题:关于为什么CNN后面的层通道数多,以及为什么前面的层W数值偏大

      本文链接:https://www.haomeiwen.com/subject/rspcvftx.html