美文网首页
卷积神经网络的小基础知识

卷积神经网络的小基础知识

作者: 水球喵 | 来源:发表于2018-01-16 15:54 被阅读0次
    一张图就够了

    batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;

    iteration:1个iteration等于使用batchsize个样本训练一次;

    epoch:1个epoch等于使用训练集中的全部样本训练一次;

     batch Normalization:在神经网络训练开始前,都要对输入数据做一个归一化处理,那么具体为什么需要归一化呢?归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度,这也正是为什么我们需要对数据都要做一个归一化预处理的原因。

    相关文章

      网友评论

          本文标题:卷积神经网络的小基础知识

          本文链接:https://www.haomeiwen.com/subject/lknsoxtx.html