image.pnghttps://blog.csdn.net/guolindonggld/article/details/79250642
https://zhuanlan.zhihu.com/p/35709485
-np.average(label*pred_score)
or -np.average(np.multiply(label*pred_score))
average(label值为1的pred_score)
- cross entroy 和 log loss 在二分类问题下是等价的;(logloss描述的是二分类)
- cross entroy 是-p*log(q) (p是真实的概率,一般情况下是取真实的label,也就退化成了0和1,因为和log loss等价)
网友评论