美文网首页Machine Learning
多类别分类中Micro-averaging与Macro-aver

多类别分类中Micro-averaging与Macro-aver

作者: Pingouin | 来源:发表于2020-12-08 08:20 被阅读0次

多类别分类中Micro-averaging与Macro-averaging的区别

The difference between the Micro averaging evaluation metrics and the Macro averaging evaluation metrics in Multiclass classification

背景

某位小朋友最近在复现一篇论文的实验时,遇到了一些关于Micro(微观)和Macro (宏观)评价指标之间的困惑,之前自己对于这些指标只是拿来主义,并没有理解与体会,随在这位小朋友的帮助下,加深了对于评价指标的理解,以此记录。

评价指标: Precision、Recall、F-score

以一个二分类任务为例:
假设输入是x,其对应的真实标签(ground truth label)是y,而某二分类分类器预测x对应的标签是y^{prediction}\{y, y^{prediction}\}\in \{0,1\}
由此,可将此预测结果,根据真实标签y和分类器预测标签y^{prediction}的不同,划分为:

(1) 真正例(True Positive, TP):真实类别为正例,预测类别为正例;
(2) 假正例(False Positive, FP):真实类别为负例,预测类别为正例;
(3) 假负例(False Negative, FN):真实类别为正例,预测类别为负例;
(4) 真负例(True Negative, TN):真实类别为负例,预测类别为负例。

此四类之间的关系,可由混淆矩阵(Confusion Matrix)表示:


则:

  • 查准率 PrecisionP = \frac{TP}{TP+FP}
    反映出模型对于真正例查的准不准,即预测的结果中,预测到的正例占总体预测结果的比例;
  • 查全率 RecallR = \frac{TP}{TP+FN}
    反映出模型对于真正例查的全不全,即预测的结果中,预测到的正例占真实总体正例的比例;
  • F值 F-scoreF-score = \frac{2PR}{P+R}
    反映出模型对于查准率和查全率之间的平衡,好的模型需要兼顾查准率与查全率。
    此外还有我们常说的准确率(Accuracy,Acc):Acc= \frac{TP+TN}{TP + TN + FP + FN}

当只有一个二分类任务时,直接使用上面的评价指标即可。但若有n个二分类任务时,为了综合得出总体的评价结果,需要对每个二分类的指标结果,进行Micro 或者 Macro 平均。

宏平均 Macro averaging

Macro averaging是先在每个二分类上分别计算各类的指标,然后取平均值。

例如有4类:
Class A: 1 TP and 1 FP
Class B: 10 TP and 90 FP
Class C: 1 TP and 1 FP
Class D: 1 TP and 1 FP
可知:P_A=P_C=P_D=0.5, 而 P_B=0.1.

则宏平均的结果为:
P_{Macro}=\frac{0.5+0.1+0.5+0.5}{4}=0.4
其他指标的计算类似。

微平均 Micro averaging

Micro averaging则先计算总TP值,其次算总FP值,然后按指标公式计算。

同样以上面的4类为例,则微平均的结果为:
P_{Micro }=\frac{TP}{TP+FP}=\frac{1+10+1+1}{2+100+2+2}=0.123
其他指标的计算类似。

Macro averaging 和 Micro averaging 之间的差异

  1. 两者关注的点不同
  • Macro averaging 是在分别计算了每一类的指标后,求其算术平均值,对每一类都是等同而视的。
    虽然多分类任务中常有类别样本不均衡的现象,如上述的4分类中,class B有100个样本,远超其他3类,但Macro averaging的结果并没有因此完全倾向于class B的结果(P_B=0.1.),而是客观的照顾了其他类的结果。
    可以说,在类别样本数目分布不均衡时,Macro会给予样本数目较少的类别与样本数据较大的类别同等的重视程度。
  • Micro averaging 是详细统计了多分类中,每一个样本的预测结果,然后再计算相应指标的,重视的是每一个样本的结果。
    在Micro averaging中,其实已经不存在多分类的区别了,所有的类都成了一个类。
    重点关注每一个样本的结果,而弱化了类别的区别,对于整体数据集的结果来说,其实是更趋近于客观的结果。如上述的例子中,P_{Micro }=0.123而不是0.4。

但着重关于细节带来的后果是,会被样本数目较多的类别的结果影响对于整体的判断。在实际的类别不均衡时,会被大类的结果所影响,而忽略了小类的影响。

  1. 类别数目不均衡时,Micro average 的结果一定比 Macro average 的结果好吗?

很多文章建议当label imbalance时,采用Micro average的指标,且大多数情况下,Micro average 的结果似乎好于 Macro average 的结果,但这是一定的吗?

通过1中的分析,可知:Micro average关注的是每一个样本本身的结果,而消除了类别的观念。Macro average则是坚固的对每一个类,不管样本数目多少的,都给予公平的对待,强调了类的观念。所以,使用哪一种评价指标,应该视我们的任务而定。如果任务需要探索类之间的差异,则用Macro average;如果任务只是看模型对于数据集整体的或对每个样本的分类结果,则用Micro average。

至于对于同一结果,使用两种关注点不同的评价指标带来数值上的差异,孰高孰低,则并不一定。
例如上例中,P_{Micro }=0.123<P_{Macro }=0.4
但若Class B: 90 TP and 10 FP,则P_{Micro }=\frac{TP}{TP+FP}=\frac{1+90+1+1}{2+100+2+2}=0.877P_{Macro}=\frac{0.5+0.9+0.5+0.5}{4}=0.6,则P_{Micro }>P_{Macro }

这也正说明了类别不均衡时,大类对于最终指标结果的影响。
P_{Micro }<P_{Macro }时,说明模型对于主类的分类精确性较差,而对于小类的结果好,所以当各个类别同等重要时,较差的主类的结果就别较好的小类的结果带起来了。而当重点考虑每一个样本的结果时,由于主类含有更多的样本数,所以整体的结果就被较差的主类中的预测错误的样本拉下去了。
P_{Micro }>P_{Macro }时,则说明模型对于主类的分类精确性较好,而对于小类的结果差,刚好与上面的分析相反。

Reference

  1. https://scikit-learn.org/stable/modules/generated/sklearn.metrics.f1_score.html
  2. https://datascience.stackexchange.com/questions/15989/micro-average-vs-macro-average-performance-in-a-multiclass-classification-settin

相关文章

  • 多类别分类中Micro-averaging与Macro-aver

    多类别分类中Micro-averaging与Macro-averaging的区别 The difference b...

  • 逻辑回归(三)

    多类别分类(Multiclass Classification) 在多类别分类问题中,我们的训练集中有个多个类别,...

  • 多标签 V/S 多分类

    多标签 V/S 多分类多类分类(Multiclass classification):表示分类任务中有多个类别, ...

  • UI基础知识

    分类(类别/Category)与类扩展(Extension) 一、分类(类别/Category) 1. 适用范围 ...

  • 机器学习英语词汇--7

    A 准确率(accuracy) 分类模型预测准确的比例。在多类别分类中,准确率定义如下: 在二分类中,准确率定义为...

  • 开发者必看:超全机器学习术语词汇表!

    A 准确率(accuracy) 分类模型预测准确的比例。在多类别分类中,准确率定义如下: 在二分类中,准确率定义为...

  • 3.3多类别分类问题

    一对多分类问题 一对多分类问题的例子: 按如下标签分类邮件:工作、朋友、家庭、兴趣 天气预报根据天气类型分类:晴天...

  • SVM损失函数对所有点都计算损失么

    多类SVM“想要”正确类别的分类分数比其他不正确分类类别的分数要高,而且至少高出delta的边界值。如果其他分类分...

  • Django笔记11-分类页面与模板继承

    分类页面与模板继承 显示单一类别的文章列表 分类页面  分类页面与首页基本相同,但是显示的是指定类别的文章 模板 ...

  • ml-多类别分类:一对多

    目标:使用逻辑回归来解决多类别分类问题分类算法:“一对多”(one-vs-all) 将多个类中的一个类记为正向类(...

网友评论

    本文标题:多类别分类中Micro-averaging与Macro-aver

    本文链接:https://www.haomeiwen.com/subject/iuffgktx.html