美文网首页
补充知识-3-交叉熵

补充知识-3-交叉熵

作者: 曦宝 | 来源:发表于2021-07-15 20:41 被阅读0次

1.前言

参考了:https://zhuanlan.zhihu.com/p/35709485

交叉熵(categorical crossentropy)是常见的损失函数。

2.预测政治倾向的例子

模型1
模型1.png
模型2
模型2.png

第一列是预测三个党派的概率,第二列是正确答案。
虽然两个模型都是前两行预测正确,第三行预测错误,但是显然第二个模型正确答案的概率还是高一点,所以第二个模型的效果显然还是好一点。

3.几种评价指标

1.Classification Error(分类错误率)

就像是我们说得正确率,一个思路。
classification_error = (错误数 / 总数)
模型1的classification_error = 1/3
模型2的classification_error = 1/3

2.Mean Squared Error (均方误差)

均方误差.png

(预测值-真实值)的平方,累加再求平均。

模型1的MSE
模型1的MSE.png
模型2的MSE
模型2的MSE.png

3.Cross Entropy Loss Function(交叉熵损失函数)

image.png

公式的最后pic指的是观测样本i属于c类别的概率
然后对pic求log
在乘以yic,yic指的是样本i是否属于类别c属于为1不属于为0
然后在对一个样本的所有类别求和
因为里面都是概率所以大于0小于1,所以需要加个负号,让他变成正数。
然后在对所有样本求和
然后再对所有样本求平均


image.png
image.png

相关文章

  • 补充知识-3-交叉熵

    1.前言 参考了:https://zhuanlan.zhihu.com/p/35709485[https://zh...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

  • 机器学习相关的数学知识

    知识点理解: 信息量->熵->相对熵(KL散度)->交叉熵->分类的loss 信息量:I(x0)=−log(p(x...

  • 交叉熵, softmax和MSE

    交叉熵 从交叉熵的公式中可以看到交叉熵函数不是对称的(H(p, q) ≠ H(q,p)),它刻画的是通过概率分布q...

  • cross entropy交叉熵和ground truth总结

    一.cross entropy 交叉熵 交叉熵的概念得从信息熵的概念说起,我们都知道信息熵,简而言之就是信息量多少...

  • focal loss

    先验知识:交叉熵 - 简书 (jianshu.com)[https://www.jianshu.com/p/beb...

  • 信息熵相关知识总结

    前言 学习决策树时会接触到一些信息熵,条件熵和信息增益的知识,此外还有互信息,相对熵,交叉熵和互信息,KL散度等等...

  • 理解熵,交叉熵和交叉熵损失

    交叉熵损失是深度学习中应用最广泛的损失函数之一,这个强大的损失函数是建立在交叉熵概念上的。当我开始使用这个损失函数...

  • 【转】TensorFlow四种Cross Entropy算法实现

    作者:陈迪豪 来源:CSDNhttp://dataunion.org/26447.html 交叉熵介绍 交叉熵(C...

  • 逻辑回归例子

    交叉熵推导过程 交叉熵数损失推导 - 简书 (jianshu.com)[https://www.jianshu.c...

网友评论

      本文标题:补充知识-3-交叉熵

      本文链接:https://www.haomeiwen.com/subject/yhmmpltx.html