美文网首页
激活函数和损失函数-Question

激活函数和损失函数-Question

作者: 魏鹏飞 | 来源:发表于2020-11-19 07:20 被阅读0次

1. 有哪些激活函数,有什么用?

ReLU、Sigmoid、Tanh。作用:非线性变换。

2. ReLU、Sigmoid、Tanh函数和导数。

ReLU:
f(z)=max(0, z) => 导数 f(n) = \begin{cases} 1, & z>0; \\ 0, & z \le 0. \end{cases}

Sigmoid:
f(z)=\frac{1}{1+exp(-z)} => 导数 f'(z)=f(z)(1-f(z))

Tanh:
f(z)=\frac{e^z-e^{-z}}{e^z+e^{-z}} => 导数 f'(z)=1-(f(z))^2

3. Sigmoid和ReLU的区别,ReLU解决了什么问题?

Sigmoid和Tanh激活函数会导致梯度消失问题。
ReLU优点:

  • Sigmoid和Tanh均需要计算指数,复杂度高。ReLU只需要一个阈值即可得到激活值。
  • ReLU的非饱和性可以有效地解决梯度消失问题。
  • ReLU的单侧抑制提供了网络的稀疏表达能力。

1. 有哪些损失函数?

均方差损失(MSE)、交叉熵损失(CrossEntropy)
J_{MSE}=\frac{1}{N}\sum_{i=1}^N(\hat{y}_i-y_i)^2
J_{CE}=-\sum_{i=1}^N[y_ilog\hat{y}_i+(1-y_i)log(1-\hat{y}_i)]

2. 交叉熵、相对熵、

相对熵又名KL散度:D_{KL}(p||q)=\sum_x p(x)log\frac{p(x)}{q(x)}=\sum_x[p(x)log(p(x))-p(x)log(q(x))]

交叉熵:H(p,q)=-\sum_x p(x)log(q(x))

3. 交叉熵损失函数公式。

J_{CE}=-\sum_{i=1}^N[y_ilog\hat{y}_i+(1-y_i)log(1-\hat{y}_i)]

4. 为什么使用交叉熵,不用平方差?

平方差损失函数更适合输出为连续,并且最后一层不含sigmoidsoftmax激活函数的神经网络;
原因是:平方差损失函数相对于输出层的导数:\delta^{(L)}=(a^{(L)}-y)f'(z^{(L)}),如果z^{(L)}的绝对值较大,函数的梯度会趋于饱和,导致\delta^{(L)}的取值非常小,梯度学习非常缓慢。

交叉熵损失函数相对输出层的导数:\delta^{(L)}=a^{(L)}-y 此时导数是线性的,因此不会存在学习速度过慢的问题。

相关文章

  • 激活函数和损失函数-Question

    1. 有哪些激活函数,有什么用? ReLU、Sigmoid、Tanh。作用:非线性变换。 2. ReLU、Sigm...

  • 激活函数和损失函数

    3.1 激活函数 关于激活函数,首先要搞清楚的问题是,激活函数是什么,有什么用?不用激活函数可不可以?答案是不可以...

  • 深度学习中的激活函数

    激活函数的作用 摘自:https://www.zhihu.com/question/22334626 激活函数(A...

  • 分类+激活函数+损失函数

    分类问题 输出层使用激活函数 对应的损失函数 二分类 ...

  • 激活函数与损失函数

    激活函数 1、作用: 线性模型的表达能力不够,激活函数增加神经网络模型的非线性,提升神经网络模型表达能力(数据往往...

  • [pytorch]如何将label转化成onehot编码

    之前用octave学习神经网络的时候,用逻辑回归,激活函数是sigmoid,损失函数是交叉熵损失函数,那个时候不用...

  • 一些知识点总结

    损失函数(代价函数): 1.均方误差 2.交叉熵 3. 对数似然函数 激活函数: 1. sigmoid函数 2. ...

  • 交叉熵损失函数

    目录 二分类 多分类 为什么sigmoid激活函数,使用交叉熵损失函数更好? 1. 二分类 激活函数sigmoid...

  • DNN算法总结

    一.DNN前向传播算法 二.DNN反向传播算法 三.损失函数和激活函数的选择 对数似然函数和交叉熵函数在二分类的情...

  • 【深度学习】

    1, 两个重要的函数:得分函数和损失函数损失函数: hinge损失,softmax 损失。hinge损失: max...

网友评论

      本文标题:激活函数和损失函数-Question

      本文链接:https://www.haomeiwen.com/subject/bdczkktx.html