美文网首页
第二次打卡 Task05

第二次打卡 Task05

作者: 几时见得清梦 | 来源:发表于2020-02-19 19:36 被阅读0次

一、卷积神经网络基础

卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。
二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。

二、LeNet

使用全连接层的局限性:

图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。
对于大尺寸的输入图像,使用全连接层容易导致模型过大。

使用卷积层的优势:

卷积层保留输入形状。
卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。

三、卷积神经网络进阶

LeNet: 在大的真实数据集上的表现并不尽如⼈意。
1.神经网络计算复杂。
2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。

机器学习的特征提取:手工定义的特征提取函数
神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。

神经网络发展的限制:数据、硬件

1×1卷积核作用
1.放缩通道数:通过控制卷积核的数量达到通道数的放缩。
2.增加非线性。1×1卷积核的卷积过程相当于全连接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性。
3.计算参数少

NiN重复使⽤由卷积层和代替全连接层的1×1卷积层构成的NiN块来构建深层⽹络。
NiN去除了容易造成过拟合的全连接输出层,而是将其替换成输出通道数等于标签类别数 的NiN块和全局平均池化层。
NiN的以上设计思想影响了后⾯⼀系列卷积神经⽹络的设计。

相关文章

  • 第二次打卡 Task05

    一、卷积神经网络基础 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右...

  • 2月10日【叶妈】组清单体打卡文

    欣然老师第二次打卡文 瑞秋老师第二次打卡文 小梁老师打卡文 木子老师第二次打卡文

  • 第二次打卡Task03、Task04、Task05

    过拟合、欠拟合及其解决方案 训练误差和泛化误差 模型选择:model selection 在比赛中一般采用5折的交...

  • 5月组队学习05:高维异常检测

    Task05:高维异常检测(3天)● 了解集成方法的思想● 理解feature bagging原理● 掌握孤立森林...

  • task05

    卷积神经网络基础 二维卷积层 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维...

  • Task05

    一 卷积神经网络基础 二维卷积层,常用于处理图像数据。 1 二维互相关运算 二维互相关(cross-correla...

  • Numpy组队学习 Task05打卡

    排序 可以使用axis参数沿某个轴进行排序 a.sort() 对原数组按位置排序 np.sort(a) 返回的是已...

  • Ife Javascript Task 05 & Tas

    今天完成的事情: 完成了task05中 "左入","左出","右入","右出"的功能。 明天计划的事情: 改变一下...

  • 2020-02-21

    继续打卡!CSS基础第二次!

  • 任务五——task05

    placeholder 属性有什么作用? placeholder 描述某输入字段预期值的提示信息(hint)。该提...

网友评论

      本文标题:第二次打卡 Task05

      本文链接:https://www.haomeiwen.com/subject/orczfhtx.html