Task06

作者: 浅草微微暖_4b93 | 来源:发表于2020-02-25 19:52 被阅读0次

一 批量归一化和残差网络

对输入的标准化(浅层模型)

处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。

标准化处理输入数据使各个特征的分布相近

批量归一化(深度模型)

利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。

1.对全连接层做批量归一化

位置:全连接层中的仿射变换和激活函数之间。

2.对卷积层做批量归⼀化

位置:卷积计算之后、应⽤激活函数之前。

如果卷积计算输出多个通道,我们需要对这些通道的输出分别做批量归一化,且每个通道都拥有独立的拉伸和偏移参数。计算:对单通道,batchsize=m,卷积计算输出=pxq对该通道中m×p×q个元素同时做批量归一化,使用相同的均值和方差。

3.预测时的批量归⼀化

训练:以batch为单位,对每个batch计算均值和方差。

预测:用移动平均估算整个训练数据集的样本均值和方差。

ResNet模型

卷积(64,7x7,3)

批量一体化

最大池化(3x3,2)

残差块x4 (通过步幅为2的残差块在每个模块之间减小高和宽)

全局平均池化

全连接

稠密连接网络(DenseNet):

主要构建模块:

稠密块(dense block): 定义了输入和输出是如何连结的。

过渡层(transition layer):用来控制通道数,使之不过大。

二 凸优化

优化与估计

尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。

优化方法目标:训练集损失函数值

深度学习目标:测试集损失函数值(泛化性)

Jensen 不等式:

性质

无局部极小值,与凸集的关系,二阶条件

三 梯度下降

相关文章

  • Task06

    一 批量归一化和残差网络 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为...

  • 任务五——task06

    type=hidden隐藏域有什么作用? 举例说明 隐藏表单,一般用来传递参数,又不想让用户看到,相对于其他传递参...

  • Task06 边缘检测

    6.1 简介 6.1.1 什么是边缘? 边缘是图像强度函数快速变化的地方 6.1.2 如何检测边缘? 为了检测边缘...

  • Task06:基于图神经的图表示学习方法

    Datawhale提供的课程链接:https://github.com/datawhalechina/team-l...

  • 第三次打卡Task06、Task07、Task08

    批量归一化和残差网络 nn.BatchNorm2d()表示卷积层的BN,参数为通道数。nn.BatchNorm1d...

网友评论

      本文标题:Task06

      本文链接:https://www.haomeiwen.com/subject/tfgfchtx.html