美文网首页
交叉熵 vs logloss

交叉熵 vs logloss

作者: 7ccc099f4608 | 来源:发表于2021-04-21 20:15 被阅读0次

    https://blog.csdn.net/guolindonggld/article/details/79250642
    https://zhuanlan.zhihu.com/p/35709485

    image.png

    -np.average(label*pred_score) or -np.average(np.multiply(label*pred_score))
    average(label值为1的pred_score)


    1. cross entroy 和 log loss 在二分类问题下是等价的;(logloss描述的是二分类)
    2. cross entroy 是-p*log(q) (p是真实的概率,一般情况下是取真实的label,也就退化成了0和1,因为和log loss等价)

    相关文章

      网友评论

          本文标题:交叉熵 vs logloss

          本文链接:https://www.haomeiwen.com/subject/yzdghltx.html