美文网首页
准确率、精确率、召回率

准确率、精确率、召回率

作者: 李春辉 | 来源:发表于2019-10-30 20:19 被阅读0次

    在机器学习领域,模型评估中的TP、TN、FP、FN、准确率、精确率等,实在是令人傻傻分不清,今天就好好缕缕这些概念。
    混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。


    混淆矩阵 二分类混淆矩阵例子

    TP:预测为正向(P),实际上预测正确(T),即判断为正向的正确率
    TN:预测为负向(N),实际上预测正确(T),即判断为负向的正确率
    FP:预测为正向(P),实际上预测错误(F),误报率,即把负向判断成了正向
    FN:预测为负向(N),实际上预测错误(F),漏报率,即把正向判断称了负向

    2、准确率(Accuracy)

    准确率是最常用的分类性能指标。
    Accuracy = (TP+TN)/(TP+FN+FP+TN)
    即预测正确的比上全部的数据,可理解为预测正确率。
    例:预侧对的5只狗+预测对的4只猫【比上】全部的数据10。 Accuracy=9/10


    准确率

    3、精确率(Precision)

    精确率容易和准确率被混为一谈。其实,精确率只是针对预测正确的正样本而不是所有预测正确的样本。表现为预测出是正的里面有多少真正是正的。可理解为查准率。
    Precision = TP/(TP+FP)
    即正确预测的正例数 /预测正例总数。
    例:预测对的5只狗【比上】预测为狗的总数5+0=5,Precision=5/5


    精确率

    4、召回率(Recall)

    召回率表现出在实际正样本中,分类器能预测出多少。可理解为查全率。
    Recall = TP/(TP+FN),即正确预测的正例数 /实际正例总数。
    即在所有实际的正向数据中,有多少预测正确了。
    例如:预测对的5只狗【比上】实际为狗的总数是5+1=6


    召回率

    5、F1 score

    F值是精确率和召回率的调和值,更接近于两个数较小的那个,所以精确率和召回率接近时,F值最大。很多推荐系统的评测指标就是用F值的。
    2/F1 = 1/Precision + 1/Recall

    相关文章

      网友评论

          本文标题:准确率、精确率、召回率

          本文链接:https://www.haomeiwen.com/subject/yudfyctx.html