美文网首页
深度学习问题记录

深度学习问题记录

作者: Yankee_13 | 来源:发表于2019-02-26 21:08 被阅读0次

献给莹莹

1.为什么交叉熵损失相比均方误差损失能提高以 sigmoid 和 softmax 作为激活函数的层的性能?

  • 因为sigmoid函数的性质,导致σ′(z)在z取大部分值时会很小(如下图标出来的两端,几近于平坦),这样会使得w和b更新非常慢(因为η * a * σ′(z)这一项接近于0)。


  • 导数中没有σ′(z)这一项,权重的更新是受σ(z)−y这一项影响,即受误差的影响。所以当误差大的时候,权重更新就快,当误差小的时候,权重的更新就慢。这是一个很好的性质

相关文章

  • 【深度学习-1】安装TensorFlow

    Rapp从今天起推出【深度学习】系列,主要记录自己在学习深度学习技术的过程中遇到的问题和心得。在深度学习领域,Ra...

  • 深度学习问题记录

    献给莹莹 1.为什么交叉熵损失相比均方误差损失能提高以 sigmoid 和 softmax 作为激活函数的层的性能...

  • 记录 深度学习

    链接:https://www.zhihu.com/question/20132531/answer/1538531...

  • 深度学习问题

    1 输入输出数据的分布不能太夸张,否则会影响神经网络的权重分布,进而导致模型训练过程的参数梯度消失,预测出来的结果为空

  • “深度学习”之感

    第一次听到“深度学习”这个问题,我全蒙了,想着学习还要深度学习,什么是深度学习,怎么深度学习呢? 听了贾老师的课...

  • 机器学习系列1-学习资料和学习路线

    该系列是学习机器学习的系列博客,主要用于记录和分享学习机器学习(和深度学习)过程中的各种知识和问题,希望能够将自己...

  • 《Python 深度学习》学习记录

    第一部分 深度学习基础 第一章 什么是深度学习 1.1 人工智能、机器学习与深度学习 首先,我们通过一个图明确一下...

  • 《深度学习的艺术》笔记

    书名:深度学习的艺术-采铜 问题:如何成为高段位的学习者 动机:怎样达到深度学习 本来深度学习这本书要用30分钟看...

  • Batch Normal & Covariate shift

    主要记录一下在看卷积神经网络的时候想到的、碰到的种种问题。 首先是在看TensorFlow实战google深度学习...

  • 深度学习

    一、机器的深度和人类的深度学习 人的深度学习和现在较热的人工智能深度学习不是一个概念,也不是一个维度的问题。 人工...

网友评论

      本文标题:深度学习问题记录

      本文链接:https://www.haomeiwen.com/subject/egbzyqtx.html