Cross Entropy Loss
在二分类问题模型:例如逻辑回归「Logistic Regression」、神经网络「Neural Network」等,真实样本的标签为 [0,1],分别表示负类和正类。模型的最后通常会经过一个 Sigmoid 函数,输出一个概率值,这个概率值反映了预测为正类的可能性:概率越大,可能性越大。
单个样本损失函数:

N 个样本的总的损失函数:

交叉熵损失函数的其他形式:
单个样本:

N个样本:

转载自: https://blog.csdn.net/red_stone1/article/details/80735068
网友评论