美文网首页
第二次打卡 Task05

第二次打卡 Task05

作者: 几时见得清梦 | 来源:发表于2020-02-19 19:36 被阅读0次

    一、卷积神经网络基础

    卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。
    二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。

    二、LeNet

    使用全连接层的局限性:

    图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。
    对于大尺寸的输入图像,使用全连接层容易导致模型过大。
    

    使用卷积层的优势:

    卷积层保留输入形状。
    卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。
    

    三、卷积神经网络进阶

    LeNet: 在大的真实数据集上的表现并不尽如⼈意。
    1.神经网络计算复杂。
    2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。

    机器学习的特征提取:手工定义的特征提取函数
    神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。

    神经网络发展的限制:数据、硬件

    1×1卷积核作用
    1.放缩通道数:通过控制卷积核的数量达到通道数的放缩。
    2.增加非线性。1×1卷积核的卷积过程相当于全连接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性。
    3.计算参数少

    NiN重复使⽤由卷积层和代替全连接层的1×1卷积层构成的NiN块来构建深层⽹络。
    NiN去除了容易造成过拟合的全连接输出层,而是将其替换成输出通道数等于标签类别数 的NiN块和全局平均池化层。
    NiN的以上设计思想影响了后⾯⼀系列卷积神经⽹络的设计。

    相关文章

      网友评论

          本文标题:第二次打卡 Task05

          本文链接:https://www.haomeiwen.com/subject/orczfhtx.html