https://www.zhihu.com/question/65288314
https://www.cnblogs.com/arkenstone/p/10524720.html
- A和B的KL散度 = A和B的交叉熵 - A的熵:
a. 当A的熵为常亮时,KL散度和交叉熵是等价的
b. 模型使用交叉熵作为损失函数,实际上是学习训练集的数据分布(模型输出分布和训练集分布差距减小,交叉熵定义;默认训练集分布和真实分布保持一致,这是所有模型训练的基础) - 交叉熵最小实质上就是最大似然估计(MLE)
注:
- 熵都是-log形式
- KL散度和交叉熵都不是距离,因为不具有对称性,即A和的KL散度与B和A的KL散度不同(相对变化,坐标系概念)
网友评论