美文网首页
cross entropy交叉熵和ground truth总结

cross entropy交叉熵和ground truth总结

作者: 青帝花神 | 来源:发表于2016-07-11 22:36 被阅读0次

    一.cross entropy 交叉熵

    交叉熵的概念得从信息熵的概念说起,我们都知道信息熵,简而言之就是信息量多少的度量。
    我们定义离散熵:
    连续熵:
    那么交叉熵是什么呢?交叉熵的定义如下:
    离散:
    连续:
    cross entropy error在逻辑回归中

    二.ground truth

    转至知乎:https://www.zhihu.com/question/22464082

    机器学习里经常出现ground truth这个词,能否准确解释一下?

    作者:lee philip
    链接:https://www.zhihu.com/question/22464082/answer/21443035
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

    机器学习包括有监督学习(supervised learning),无监督学习(unsupervised learning),和半监督学习(semi-supervised learning).

    在*有监督学习中,数据是有标注的,以(x, t)的形式出现,其中x是输入数据,t是标注.正确的t标注是ground truth, 错误的标记则不是。(也有人将所有标注数据都叫做ground truth)

    由模型函数的数据则是由(x, y)的形式出现的。其中x为之前的输入数据,y为模型预测的值。

    标注会和模型预测的结果作比较。在损耗函数(loss function / error function)中会将y 和 t 作比较,从而计算损耗(loss / error)。 比如在最小方差中:

    因此如果标注数据不是ground truth,那么loss的计算将会产生误差,从而影响到模型质量。

    比如输入三维,判断是否性感:

    1. 错误的数据

    标注数据1 ( (84,62,86) , 1),其中x =(84,62,86), t = 1 。
    标注数据2 ( (84,162,86) , 1),其中x =(84,162,86), t = 1 。

    这里标注数据1是ground truth, 而标注数据2不是。

    预测数据1 y = -1
    预测数据2 y = -1

    1. 正确的数据

    标注数据1 ( (84,62,86) , 1),其中x =(84,62,86), t = 1 。
    标注数据2 ( (84,162,86) , 1),其中x =(84,162,86), t = -1 。 (改为ground truth)

    这里标注数据1和2都是ground truth。

    预测数据1 y = -1
    预测数据2 y = -1

    由于使用错误的数据,对模型的估计比实际要糟糕。另外,标记数据还被用来更新权重,错误标记的数据会导致权重更新错误。因此使用高质量的数据是很有必要的。

    • 在半监督学习中,对标记数据也要进行比较

    相关文章

      网友评论

          本文标题:cross entropy交叉熵和ground truth总结

          本文链接:https://www.haomeiwen.com/subject/xipjjttx.html