美文网首页
深度学习问题1-5

深度学习问题1-5

作者: 潇洒坤 | 来源:发表于2018-09-11 17:57 被阅读62次

1.写出常用的激活函数及其导数

参考链接:https://blog.csdn.net/colourful_sky/article/details/79164720

1.Sigmoid

Sigmoid又叫作 Logistic 激活函数,它将实数值压缩进 0 到 1 的区间内,还可以在预测概率的输出层中使用。该函数将大的负数转换成 0,将大的正数转换成 1。
Sigmod数学公式为:


image.png

Sigmod的导数公式为:


image.png

2.Tanh

Tanh 激活函数又叫作双曲正切激活函数(hyperbolic tangent activation function)。与 Sigmoid 函数类似,Tanh 函数也使用真值,但 Tanh 函数将其压缩至-1 到 1 的区间内。与 Sigmoid 不同,Tanh 函数的输出以零为中心,因为区间在-1 到 1 之间。你可以将 Tanh 函数想象成两个 Sigmoid 函数放在一起。在实践中,Tanh 函数的使用优先性高于 Sigmoid 函数。负数输入被当作负值,零输入值的映射接近零,正数输入被当作正值。
Tanh的数学公式为:


image.png

Tanh的导数公式为:


image.png

3.Relu

Relu 中文名叫做修正线性单元,是现在使用最广泛的函数。
Relu的数学公式为:


image.png

Relu的导数公式为:


image.png

2.神经网络训练时是否可以将参数全部初始化为0?

不可以,如果将参数全初始化为0,那同一隐层每个节点的值都相同,反向传播权值更新也相同,这样每层隐层的神经元都相同,学习失败。

3. 多层感知机表示异或逻辑时最少需要几个隐层?

2

4.为什么Sigmoid和Tanh激活函数会导致梯度消失的现象?

因为权值是通过BP更新的,sigmoid的导数最大值是0.25,tanh的导数最大值是1。
也就是说这两个函数的梯度都是<=1的,根据链式法则,梯度会衰减,以至梯度消失。

5.写出多层感知机的均方误差和交叉熵损失函数?

交叉熵损失函数用于分类问题,公式为:

image.png
均方误差用于回归问题,常见表达形式为MSE,是mean squared error的简写。
公式为:
image.png

相关文章

  • 深度学习问题1-5

    1.写出常用的激活函数及其导数 参考链接:https://blog.csdn.net/colourful_sky/...

  • 深度学习问题

    1 输入输出数据的分布不能太夸张,否则会影响神经网络的权重分布,进而导致模型训练过程的参数梯度消失,预测出来的结果为空

  • “深度学习”之感

    第一次听到“深度学习”这个问题,我全蒙了,想着学习还要深度学习,什么是深度学习,怎么深度学习呢? 听了贾老师的课...

  • 《深度学习的艺术》笔记

    书名:深度学习的艺术-采铜 问题:如何成为高段位的学习者 动机:怎样达到深度学习 本来深度学习这本书要用30分钟看...

  • 【深度学习-1】安装TensorFlow

    Rapp从今天起推出【深度学习】系列,主要记录自己在学习深度学习技术的过程中遇到的问题和心得。在深度学习领域,Ra...

  • 深度学习

    一、机器的深度和人类的深度学习 人的深度学习和现在较热的人工智能深度学习不是一个概念,也不是一个维度的问题。 人工...

  • BAT机器学习面试1000题系列(二)

    101.深度学习(CNN RNN Attention)解决大规模文本分类问题。 用深度学习(CNN RNN Att...

  • 深度学习问题1

    1、深度学习中正负样本的标记及置信度估计怎么确定 2、caffe现在样本标记及置信度估计的源码部分在哪里 PS:在...

  • 深度学习问题笔记

    Cardinality没看过?CNN网络由于其强大的特征表示能力极大地提高了计算机视觉任务的水平,为了进一步增强这...

  • 深度学习VS机器学习——到底什么区别

    最近在听深度学习的课,老师提了一个基本的问题:为什么会出现深度学习?或者说传统的机器学习有什么问题。老师讲解的时候...

网友评论

      本文标题:深度学习问题1-5

      本文链接:https://www.haomeiwen.com/subject/tbbugftx.html