我们已经知道了用得分值来衡量一个模型的好坏,但是分类的换得分值转换成概率值更加直观。
sigmoid函数可以将输入的一个实数映射到0——1区间上。下图中,输入值x的范围为正负无穷(相当于任意实数),y为0~1(相当于转换为概率值)。




概率值属于正确类别的概率越趋近于1,预测效果越好,损失值越趋向于0,等于正确类别的概率越低,预测效果越差,损失值越大。这个趋势符合-log()在0~1区间上的变化。因此我们用-log()作为损失函数。
由于max函数无法作更细致的区分,错误类别的得分和正确得分的差别不大。因此我们一般不适用。
而softmax通过e的x次幂的操作将x变换,将大的值更大,稍微大的值不那么大,再映射为概率值。再传入到-log()函数,必定会有一个损失函数值传出。
网友评论