美文网首页
推荐系统评价指标:AUC和GAUC

推荐系统评价指标:AUC和GAUC

作者: 小新_XX | 来源:发表于2020-01-21 21:18 被阅读0次

AUC是推荐系统中最常用的模型评价指标。基础概念要常看常新,最近复习了一遍AUC的概念,在此做个笔记。本文力求简洁系统地理解AUC的概念和计算方法,AUC在推荐/广告领域的局限性以及解决这一问题的另一个指标:Group AUC(GAUC)

1. 分类任务与混淆矩阵

认识auc的第一步,是看懂混淆矩阵:

预测\真实 1 0
1 TP FP
0 FN TN
  • True/False代表预测的正确/错误; Positive/Negative代表预测值为1/0.
  • TP是真1;FP是假1;FN是假0; TN是真0。
  • 真阳率:TPR = \frac{TP}{TP+FN},正样本被预测为1的概率;
  • 假阳率:FPR = \frac{FP}{FP+TN},负样本被预测为1的概率;

2. ROC曲线与AUC

  • 以x轴为FPR, y轴为TPR,做出图称为ROC曲线

  • AUC的定义:Area Under ROC Curve,即ROC曲线下的面积

  • AUC的意义:随机抽取一对正负样本,AUC是把正样本预测为1的概率大于把负样本预测为1的概率的概率。这句话有点拗口,用公式写就是:
    AUC = P(P_{正}>P_{负})\tag1
    其中P_正指将该正样本预测为1的概率;P_负指将该负样本预测为1的概率;

  • 当auc=0.5时,模型没有分类能力,完全是随机猜测;auc>0.5时,把1预测为1的概率,比把0预测为1的概率大,说明模型有一定的分类能力。当auc<0.5时,把模型的预测类别取反,即可得到auc>0.5的结果。

  • auc的最大值为1,此时TPR恒等于1,即正样本永远会被预测正确

  • 关于ROC曲线如何作图,请参考这篇文章

  • AUC的优势:能够综合考虑到正例和负例,因此可以应对样本不均衡的情况。

  • 如何求解AUC:两种求解公式
    (a)方法一:
    AUC=\frac{\sum_{M*N} I(P_{正},P_{负})}{M*N}
    其中I(P_{正},P_{负})=\left\{\begin{aligned}1, & P_{正}>P_{负} \\0.5, & P_{正}=P_{负}\\0, & P_{正}<P_{负}\end{aligned}\right.\tag2
    M、N分别为正、负样本数。式(2)反映了AUC的定义,即随机抽取一对正负样本,把正样本预测为1的概率大于把负样本预测为1的概率,这里使用频数来估计频率。分母M*N表示随机抽取一对正负样本;分子是这些样本对中P_正>P_负的个数。当P_正=P_负时取一个折中值0.5 .

(b)方法二:
AUC=\frac{\sum_{ins_i \in 正例} rank_{ins_i}-\frac{M*(M+1)}{2}}{M*N}\tag3
其中M、N分别为正、负样本数。rank_{ins_i}是第i条样本ins_i的序号(概率得分从小到大排序,排在第rank个位置),ins_i \in 正例 表示只把正样本的序号加起来。
式(3)和式(2)的思想类似,分母都表示随机抽取一对正负样本;其分子的第一项把所有样本按预测概率从小到大排序,然后将其中正样本的序号进行求和。对于每一个正样本,其序号表示排在该正样本之前的样本个数,即该正样本的预测概率比多少个样本大;再减去其中的正样本个数,即得到该正样本的预测概率比多少个负样本大。因此分子可以写作\sum_{ins_i\in正例}(rank_{ins_i}-i), 其中i = 1, 2,...M,拆开来就得到(3)中的结果。

这样理解比较抽象,举例说明:(引用自 AUC的计算方法 -kingsam_)

样本 标签 预测概率
A 0 0.1
B 0 0.4
C 1 0.35
D 1 0.8

根据公式(2),首先列出所有的正负样本对:(C, A), (C, B), (D, A), (D, B), 计算得\sum_{M*N} I(P_{正},P_{负}) = 1+0+1+1=3; 因此AUC = \frac{3}{2*2}=0.75.

根据公式(3), 首先将所有样本按预测概率从小到大排序:A < C < B < D, 因此AUC = \frac{2 + 4 - 3}{2*2}=0.75

3. GAUC:Group AUC

  • 为什么要引入GAUC:因为AUC有时候不能满足推荐/广告系统中用户个性化的需求

    再举个栗子:(引用自https://blog.csdn.net/hnu2012/article/details/87892368

    假设现有两个用户甲和乙,一共有5个样本其中+表示正样本,-表示负样本。现有两个模型A和B,对5个样本的predict score按从小到大排序如下:

    模型A 甲- 甲+ 乙- 甲+ 乙+
    模型B 甲- 甲+ 甲+ 乙- 乙+

    从以上模型预测结果可以看出,对于用户甲的样本,模型A和B对甲的正样本打分都比其负样本高;对于用户乙的样本也是如此,因此分别对于用户甲和乙来说,这两个模型的效果是一样好的。

    但这两个模型的AUC如何呢?根据公式(3)计算,AUC_A = 0.833, AUC_B = 0.667. 我们发现AUC在这个场景下不准了。这是因为,AUC是对于全体样本排序后计算的一个值,反映了模型对于整体样本的排序能力。但用户推荐是一个个性化的场景,不同用户之间的商品排序不好放在一起比较。因此阿里妈妈团队使用了Group AUC来作为另一个评价指标。GAUC即先计算各个用户自己的AUC,然后加权平均,公式如下:
    GAUC = \frac {\sum_{u_i} w_{u_i}*AUC_{u_i}}{\sum w_{u_i}}\tag4

实际计算时,权重可以设为每个用户view或click的次数,并且会滤掉单个用户全是正样本或全是负样本的情况。

参考文献

  1. https://www.zhihu.com/question/39840928?from=profile_question_card
  2. https://blog.csdn.net/hnu2012/article/details/87892368
  3. https://blog.csdn.net/qq_22238533/article/details/78666436

相关文章

  • 推荐系统评价指标:AUC和GAUC

    AUC是推荐系统中最常用的模型评价指标。基础概念要常看常新,最近复习了一遍AUC的概念,在此做个笔记。本文力求简洁...

  • 关于模型评估指标,可比性,LOSS,AUC,上下限

    模型评估可以从多维度多指标进行评估。 这里只谈论指标。我们常用的指标,logloss,mse,auc(GAUC)等...

  • 4.machine_learning_eval_metric_a

    1.机器学习指标ROC与AUC 1.1ROC与AUC AUC是一种模型分类指标,且仅仅是二分类模型的评价指标。AU...

  • 推荐系统之评估方法和评价指标PR、ROC、AUC

    简介 推荐系统的评估相关的知识比重在整个推荐系统的知识框架中占比不大,但是其重要程度不言而喻,因为采用的评价指标直...

  • 评价指标ROC、AUC

    AUC 混淆矩阵 正确率和召回率很难兼得• 准确度Accuracy:(50+35)/(35+5+10+50)=85...

  • 评价指标(二)ROC和AUC

    前言   继上篇文章评价指标(一)精确率,召回率,F1-score,除了上述三个指标,这次深入讲述何为ROC与AU...

  • 推荐系统

    推荐系统 Overview 6、什么是推荐系统 7、Exploit&Explore问题 8、推荐系统的评价指标有哪...

  • AUC与ROC

    序 分类任务不同于回归,本次记录一下分类任务中常用的评价指标AUC与ROC 混淆矩阵 在搞清楚ROC和AUC之前,...

  • ROC曲线和AUC面积

    AUC 是一个模型评价指标:只能用于二分类模型的评价。AUC的计算同时考虑了正比例和负比例的,在样本不均衡的情况下...

  • 推荐系统的评价指标

    1.Recall(召回率)与Precision(精确率) 网站在提供推荐服务时,一般是给用户一个个性化的推荐列表,...

网友评论

      本文标题:推荐系统评价指标:AUC和GAUC

      本文链接:https://www.haomeiwen.com/subject/tltyzctx.html