美文网首页
二.交叉熵损失函数(Softmax损失函数)

二.交叉熵损失函数(Softmax损失函数)

作者: 愿风去了 | 来源:发表于2018-10-30 12:06 被阅读176次

    关于交叉熵在loss函数中使用的理解

    https://blog.csdn.net/tsyccnh/article/details/79163834

    神经网络基本构架

    交叉熵损失函数

    交叉熵损失函数一般用于分类任务:

    softmax函数

    详解softmax函数以及相关求导过程

    https://zhuanlan.zhihu.com/p/25723112

    softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!

    交叉熵函数

    为什么使用交叉熵损失函数

    交叉熵代价函数(作用及公式推导) 

    https://blog.csdn.net/u014313009/article/details/51043064

    实际情况证明,交叉熵代价函数带来的训练效果往往比二次代价函数要好。

    小结

    (1)分类问题的目标函数中:交叉熵损失函数是最为常用的分类目标函数,且效果一般优于合页损失函数;大间隔损失函数和中心损失函数从增大类间距离、减小类内距离的角度不仅要求分类准确,而且还有助提高特征的分辨能力;坡道损失函数是分类问题目标函数中的一类非凸损失函数,由于其良好的抗噪特性,推荐将其用于样本噪声或离群点较多的分类任务;

    (2)回归问题的目标函数中:l1损失函数和l2损失函数是常用的回归任务目标函数,实际使用l2略优于l1;Tukey‘s biweight损失函数为回归问题中的一类非凸损失函数,同样具有良好的抗噪能力;

    (3)在一些如年龄识别,头部角度姿态识别等样本标记不确定性的特殊应用场景下,基于标记分布(label distribution)的损失函数是比较好的选择。

    相关文章

      网友评论

          本文标题:二.交叉熵损失函数(Softmax损失函数)

          本文链接:https://www.haomeiwen.com/subject/nraitqtx.html