交叉熵表示两个概率分布之间的距离,公式如下:
![](https://img.haomeiwen.com/i16249591/574938662bfa27c3.png)
在人眼里,y2(0.8,0.2)更接近y,机器学习通过公式计算,y2的距离h2也确实更小,证明了这个公式的有效性
![](https://img.haomeiwen.com/i16249591/c3b33d23746e816a.png)
在tensorflow中表示:
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(predict),reduction_indices=[1])) # -sum(标准值 * log(预测值))
交叉熵表示两个概率分布之间的距离,公式如下:
在tensorflow中表示:
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(predict),reduction_indices=[1])) # -sum(标准值 * log(预测值))
本文标题:交叉熵ce(cross entropy)
本文链接:https://www.haomeiwen.com/subject/iyhkaqtx.html
网友评论