美文网首页python机器学习
分类模型评估指标

分类模型评估指标

作者: songsong_H | 来源:发表于2019-02-05 20:21 被阅读62次

本篇先考虑二分类问题,记录常用到的评估指标。

混淆矩阵

假设在训练之前和预测之后,一个样本的标记是确定的两个类别,一个是真实的1/0,一个是预测的1/0,其中1表示正例、0表示负例。

混淆矩阵.png

其中:TP(实际为正预测也为正)、FP(实际为负但预测为正)、TN(实际为负预测也为负)、FN(实际为正但预测为负)

通过混淆矩阵,可以给出以下各指标的值:

  • 召回率(查全率,Recall):所有实际是正样本的有多少被正确预测为正样本,即预测对的正例数占真正的正例数的比率:
    Recall = TP / (TP+FN)

  • 精准率(查准率,Precision):被预测为正样本的样本中有多少是真的正样本,即预测对的正例数占预测为正例总数的比率:
    Precison = TP / (TP+FP)

  • 准确率(Accuracy)反映分类器对整个样本的预测能力,能将正的预测为正,负的预测为负,计算公式:
    Accuracy = (TP+TN) / (TP+FP+TN+FN)

  • 阴性预测值 :可理解为负样本的查准率,负样本预测值被预测正确的比率,计算公式:
    NPV = TN / (TN+FN)

查准率和查全率是一对矛盾的度量,一般来说,一个高的时候,另一个就低。

F1值 --- 查准率与查全率的加权调和平均数
(1)当认为查准率与查全率一样重要时,即权重相同时:

1.1.gif

(2)当查准率和查全率的重要性不一样时,即权重不同时:
一般对于不同的问题,查准率与查全率的侧重不同。因此,F1值的一般形式为:

1.2.gif

其中β表示查全率与查准率的权重。下面对该这个一般形式的公式进行推导:
两个指标的设置及其关系如下,因为只考虑这两个指标,故二者权重之和为1,即:

1.3.gif

由上式可得到

1.4.gif

因此,可得带权重的调和平均数公式可变为

1.5.gif

进一步推导,可得

1.6.gif

总结

  1. β=1,查全率的权重=查准率的权重,即为F1
  2. β>1,查全率的权重>查准率的权重
  3. β<1,查全率的权重<查准率的权重

ROC曲线与AUC值

在介绍ROC曲线前,先明确以下几个概念,在混淆矩阵中
真阳性率(True Positive Rate,TPR),灵敏度(Sensitivity),召回率(Recall):
Sensitivity=Recall=TPR= TP/(TP+FN)
真阴性率(True Negative Rate,TNR),特异度(Specificity):
Specificity=TNR=TN/(FP+TN)
假阴性率(False Negative Rate,FNR),漏诊率(=1-灵敏度):
FNR=FN/(TP+FN)
假阳性率(False Positive Rate,FPR),误诊率(=1-特异度):
FPR=FP/(FP+TN)

ROC曲线:接收者操作特征曲线(receiver operating characteristic curve),是反映敏感性和特异性连续变量的综合指标,ROC曲线上每个点反映着对同一信号刺激的感受性。

下图是一个ROC曲线示例:

ROC.png
  • 横坐标:1-Specificity,假正类率(False Positive Rate,FPR),预测为正但实际为负的样本占所有负样本的比例。FPR越大,预测的正类中实际负类越多。
  • 纵坐标:Sensitivity,真正类率(True Positive Rate,TPR),预测为正且实际为正的样本的占所有正例样本的比例。TPR越大,预测的正类中实际正类越多。

在一个二分类模型中,例如逻辑回归学习器,针对其输出的每个样本为正例的概率,那么通过设定一个阈值如0.6,概率大于等于0.6的为正类,小于0.6的为负类,对应的就可以算出一个组(FPR,TPR),在平面中就得到对应的坐标点。随着阈值的逐渐减小,越来越多的样本被归为正类,但是这些正类中也会夹杂着真正的负例,即TPR和FPR会同时增大。阈值最大时为,对应的坐标为(0,0),阈值最小时,对应的坐标为(1,1)。
理想目标:TPR=1,FPR=0,即图中的(0,1)点,所以ROC曲线越靠拢(0,1)点,即越偏离45度的直线越好。

AUC值
AUC(Area Under Curve)被定义为ROC曲线下的面积。使用AUC值作为衡量模型准确性的评价标准是因为ROC曲线很多时候不能清晰的说明哪个分类模型的效果更好,而作为一个数值,对应AUC更大的模型效果更好,AUC值越接近1模型的效果越好。

从AUC值判断模型的好坏:

  • AUC=1,是一个完美的分类器,能得出完美预测结果。绝对大多数场景下,不存在完美的分类器。
  • 0.5<AUC<1,优于随机预测,模型设定好阈值之后,能用预测价值。
  • AUC=0.5,和随机预测一样,模型没有预测价值。
  • AUC<0.5,比随机预测还差,但是反着预测的话,就会优于随机预测。

为什么使用ROC和AUC?
有了那么多评价指标,为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。


KS

在评价模型时还会用到KS(Kolmogorov-Smirnov)值,KS=max(TPR-FPR),即为TPR与FPR的差的最大值,KS值可以反映出模型的最优区分效果,此时所取的阈值一般作为定义好坏用户的最优阈值。一般KS>0.2认为模型有比较好的预测准确性。

KS.png

KS曲线的最高点(最大值)为KS值,KS值越大,模型的区分度越好,KS值为0代表是没有区分度的随机模型。准确的来说,KS是用来度量正样本与负样本区分程度的。但是KS值所代表的仅仅是模型的区分能力,并不代表区分的样本是准确的。如果正负样本完全分错,但KS值可以依旧很高。


Lift提升图

Lift提升图是不同阈值下Lift和Depth的轨迹。

lift.gif depth.gif

Lift指标衡量的是,与不利用模型相比,模型的预测能力“变好”了多少。不利用模型,我们只能利用“正例的比例是(TP+FN)/(TP+FP+FN+TN)”这个样本信息来估计正例的比例(baseline model),而利用模型之后,我们不需要从整个样本中来挑选正例,只需要从我们预测为正例的样本子集TP+FP中挑选正例,这时预测的准确率为TP/(TP+FP)。

显然,lift(提升指数)越大,模型的运行效果越好。如果这个模型的预测能力和baseline model一样,那么TP/(TP+FP)就等于(TP+FN)/(TP+FP+FN+TN),这个模型的效果就没有任何“提升”了。

作图步骤:

  1. 根据学习器的预测得分(正例的概率值)对样本进行排序(从大到小),依次计算出取不同得分下所对应的预测成正例的比例depth
  2. 按预测得分顺序,选取不同截断点,计算累计组内预测正例数TP和累计组内预测样本数TP+FP,然后再计算Lift值
Lift.png

上图的纵坐标是lift值,横坐标是预测成正例的比例,随着阈值的减小,更多的观测值会被归为正例,也就是depth(预测成正例的比例)变大。当阈值设的够大,只有一部分观测值会被归为正例,但这一小部分一定是最具有正例特征的观测值集合,此时这个depth对应的lift值最大。同样地,当阈值设定的足够小的,那么几乎所有的观测值都会被归为正例(占比几乎为100%),这时分类的效果就和baseline model差不多了,相对应的lift值就接近于1。

一个好的分类模型,就是要偏离baseline model足够远。在Lift图中,表现就是,在depth为1之前,lift值一直保持较高的(大于1的)数值,也即曲线足够的陡峭。

注:在信用评分中,会根据分类模型的结果,把样本分为10个数目相同的子集,每一个子集称为一个decile,其中第一个decile拥有最多的正例特征,第二个decile次之,依此类推,以上lift与depth的组合也就可以改写为lift与decile的组合,也称作lift图,含义一样。

ROC曲线和Lift曲线都能评价逻辑回归模型的效果:

  • 类似信用分的场景,希望能够尽可能完成地识别出有违约风险的客户,选择ROC曲线及相应的AUC或者KS值作为指标。
  • 类似精准营销的场景,希望能够对全体消费者的分类而得到具有较高响应率的客户群从而提高投入产出比,选择lift曲线作为指标。

Gain增益图

Gains(增益)与Lift(提升)类似:Lift图是不同阈值下Lift和Depth的轨迹,Gains图是不同阈值下Precision和Depth的轨迹,而Precision=TP/TP+FP,显而易见地,它们的区别就是纵坐标不一样。
Gain增益图是描述整体精准率的指标。按照模型预测出的概率从高到低排序,将每一个百分位数内的精准率指标标注在图形区域内,就形成了非累积的增益图。如果对每一个百分位及其之前的精准率求和并标注在图形区域内,则形成累积的增益图。累积图通常可以更好的表现模型性能,而非累计图则更有利于指出模型中可能存在问题的地方。


参考

https://www.deeplearn.me/1522.html
https://cosx.org/2009/02/measure-classification-model-performance-lift-gain/

相关文章

  • 模型性能评估

    目录 1、模型评估指标 2、总结 1、模型评估指标 2、总结:本文以思维导图的方式罗列了二分类中模型评估中常用的指...

  • 分类模型评估指标

    本篇先考虑二分类问题,记录常用到的评估指标。 混淆矩阵 假设在训练之前和预测之后,一个样本的标记是确定的两个类别,...

  • 机器学习:常用模型评估指标

    在机器学习建模过程中,针对不同的问题,需采用不同的模型评估指标。 一、分类模型评估指标: 1、混淆矩阵(Confu...

  • 【百面机器学习】优化算法

    机器学习算法 = 模型表征 + 模型评估 + 优化算法。不同的优化算法对应的模型表征和评估指标分别为线性分类模型和...

  • 模型性能评估

    不同的机器学习任务对应有不同的评估指标: 评估分类模型 混淆矩阵(Confusion matrix): True ...

  • 5、sklearn模型建立及评估

    前置工作 填充数据 编码分类变量 划分数据集 模型搭建 模型评估 模型评估是为了知道模型的泛化能力,主要指标有:1...

  • 分类模型的评估(二)

    在上一篇文章里(《分类模型的评估(一)》),我们讨论了针对某一给定分类结果的评估指标,也就是查准率(Precisi...

  • 一文看懂分类模型的评估指标:准确率、精准率、召回率、F1、ROC

    机器学习模型需要有量化的评估指标来评估哪些模型的效果更好。本文将用通俗易懂的方式讲解分类问题的混淆矩阵和各种评估指...

  • 【转】 分类模型评估指标汇总

    作者:努力的孔子 https://www.cnblogs.com/yanshw/p/10735079.html 对...

  • 模型评估——评估指标的局限性

    在模型评估过程中,往往对于不同的模型,需要不同的指标进行评估,在众多评估指标中,大部分指标只能反映模型的部分性能,...

网友评论

    本文标题:分类模型评估指标

    本文链接:https://www.haomeiwen.com/subject/amhcsqtx.html