美文网首页
深度学习问题记录

深度学习问题记录

作者: Yankee_13 | 来源:发表于2019-02-26 21:08 被阅读0次

    献给莹莹

    1.为什么交叉熵损失相比均方误差损失能提高以 sigmoid 和 softmax 作为激活函数的层的性能?

    • 因为sigmoid函数的性质,导致σ′(z)在z取大部分值时会很小(如下图标出来的两端,几近于平坦),这样会使得w和b更新非常慢(因为η * a * σ′(z)这一项接近于0)。


    • 导数中没有σ′(z)这一项,权重的更新是受σ(z)−y这一项影响,即受误差的影响。所以当误差大的时候,权重更新就快,当误差小的时候,权重的更新就慢。这是一个很好的性质

    相关文章

      网友评论

          本文标题:深度学习问题记录

          本文链接:https://www.haomeiwen.com/subject/egbzyqtx.html