美文网首页
机器学习:如何解决机器学习中数据不平衡问题

机器学习:如何解决机器学习中数据不平衡问题

作者: nightwish夜愿 | 来源:发表于2018-01-12 14:11 被阅读0次

    这几年来,机器学习和数据挖掘非常火热,它们逐渐为世界带来实际价值。与此同时,越来越多的机器学习算法从学术界走向工业界,而在这个过程中会有很多困难。数据不平衡问题虽然不是最难的,但绝对是最重要的问题之一。

    一、数据不平衡

    在学术研究与教学中,很多算法都有一个基本假设,那就是数据分布是均匀的。当我们把这些算法直接应用于实际数据时,大多数情况下都无法取得理想的结果。因为实际数据往往分布得很不均匀,都会存在“长尾现象”,也就是所谓的“二八原理”。下图是新浪微博交互分布情况:

    可以看到大部分微博的总互动数(被转发、评论与点赞数量)在0-5之间,交互数多的微博(多于100)非常之少。如果我们去预测一条微博交互数所在档位,预测器只需要把所有微博预测为第一档(0-5)就能获得非常高的准确率,而这样的预测器没有任何价值。那如何来解决机器学习中数据不平衡问题呢?这便是这篇文章要讨论的主要内容。

    严格地讲,任何数据集上都有数据不平衡现象,这往往由问题本身决定的,但我们只关注那些分布差别比较悬殊的;另外,虽然很多数据集都包含多个类别,但这里着重考虑二分类,因为解决了二分类中的数据不平衡问题后,推而广之就能得到多分类情况下的解决方案。综上,这篇文章主要讨论如何解决二分类中正负样本差两个及以上数量级情况下的数据不平衡问题。

    不平衡程度相同(即正负样本比例类似)的两个问题,解决的难易程度也可能不同,因为问题难易程度还取决于我们所拥有数据有多大。比如在预测微博互动数的问题中,虽然数据不平衡,但每个档位的数据量都很大——最少的类别也有几万个样本,这样的问题通常比较容易解决;而在癌症诊断的场景中,因为患癌症的人本来就很少,所以数据不但不平衡,样本数还非常少,这样的问题就非常棘手。综上,可以把问题根据难度从小到大排个序:大数据+分布均衡<大数据+分布不均衡<小数据+数据均衡<小数据+数据不均衡。说明:对于小数据集,机器学习的方法是比较棘手的。对于需要解决的问题,拿到数据后,首先统计可用训练数据有多大,然后再观察数据分布情况。经验表明,训练数据中每个类别有5000个以上样本,其实也要相对于特征而言,来判断样本数目是不是足够,数据量是足够的,正负样本差一个数量级以内是可以接受的,不太需要考虑数据不平衡问题(完全是经验,没有理论依据,仅供参考)。

    二、如何解决

    解决这一问题的基本思路是让正负样本在训练过程中拥有相同的话语权,比如利用采样与加权等方法。为了方便起见,我们把数据集中样本较多的那一类称为“大众类”,样本较少的那一类称为“小众类”。

    1. 采样

    采样方法是通过对训练集进行处理使其从不平衡的数据集变成平衡的数据集,在大部分情况下会对最终的结果带来提升。

    采样分为上采样(Oversampling)和下采样(Undersampling),上采样是把小众类复制多份,下采样是从大众类中剔除一些样本,或者说只从大众类中选取部分样本。

    随机采样最大的优点是简单,但缺点也很明显。上采样后的数据集中会反复出现一些样本,训练出来的模型会有一定的过拟合;而下采样的缺点显而易见,那就是最终的训练集丢失了数据,模型只学到了总体模式的一部分。

    上采样会把小众样本复制多份,一个点会在高维空间中反复出现,这会导致一个问题,那就是运气好就能分对很多点,否则分错很多点。为了解决这一问题,可以在每次生成新数据点时加入轻微的随机扰动,经验表明这种做法非常有效。

    因为下采样会丢失信息,如何减少信息的损失呢?第一种方法叫做EasyEnsemble,利用模型融合的方法(Ensemble):多次下采样(放回采样,这样产生的训练集才相互独立)产生多个不同的训练集,进而训练多个不同的分类器,通过组合多个分类器的结果得到最终的结果。第二种方法叫做BalanceCascade,利用增量训练的思想(Boosting):先通过一次下采样产生训练集,训练一个分类器,对于那些分类正确的大众样本不放回,然后对这个更小的大众样本下采样产生训练集,训练第二个分类器,以此类推,最终组合所有分类器的结果得到最终结果。第三种方法是利用KNN试图挑选那些最具代表性的大众样本,叫做NearMiss,这类方法计算量很大,感兴趣的可以参考“Learning

    from Imbalanced Data”这篇综述的3.2.1节。

    2. 数据合成

    数据合成方法是利用已有样本生成更多样本,这类方法在小数据场景下有很多成功案例,比如医学图像分析等。

    SMOTE为每个小众样本合成相同数量的新样本,这带来一些潜在的问题:一方面是增加了类之间重叠的可能性,另一方面是生成一些没有提供有益信息的样本。为了解决这个问题,出现两种方法:Borderline-SMOTE与ADASYN。

    Borderline-SMOTE的解决思路是寻找那些应该为之合成新样本的小众样本。即为每个小众样本计算K近邻,只为那些K近邻中有一半以上大众样本的小众样本生成新样本。直观地讲,只为那些周围大部分是大众样本的小众样本生成新样本,因为这些样本往往是边界样本。确定了为哪些小众样本生成新样本后再利用SMOTE生成新样本。

    横向是真实分类情况,纵向是预测分类情况,C(i,j)是把真实类别为j的样本预测为i时的损失,我们需要根据实际情况来设定它的值。

    这种方法的难点在于设置合理的权重,实际应用中一般让各个分类间的加权损失值近似相等。当然这并不是通用法则,还是需要具体问题具体分析。

    4. 一分类

    对于正负样本极不平衡的场景,我们可以换一个完全不同的角度来看待问题:把它看做一分类(One

    Class Learning)或异常检测(Novelty

    Detection)问题。这类方法的重点不在于捕捉类间的差别,而是为其中一类进行建模,经典的工作包括One-class SVM等。

    说明:对于正负样本极不均匀的问题,使用异常检测,或者一分类问题,也是一个思路。

    三、如何选择

    解决数据不平衡问题的方法有很多,上面只是一些最常用的方法,而最常用的方法也有这么多种,如何根据实际问题选择合适的方法呢?接下来谈谈一些我的经验。

    1、在正负样本都非常之少的情况下,应该采用数据合成的方式;

    2、在负样本足够多,正样本非常之少且比例及其悬殊的情况下,应该考虑一分类方法;

    3、在正负样本都足够多且比例不是特别悬殊的情况下,应该考虑采样或者加权的方法。

    4、采样和加权在数学上是等价的,但实际应用中效果却有差别。尤其是采样了诸如Random Forest等分类方法,训练过程会对训练集进行随机采样。在这种情况下,如果计算资源允许上采样往往要比加权好一些。

    5、另外,虽然上采样和下采样都可以使数据集变得平衡,并且在数据足够多的情况下等价,但两者也是有区别的。实际应用中,我的经验是如果计算资源足够且小众类样本足够多的情况下使用上采样,否则使用下采样,因为上采样会增加训练集的大小进而增加训练时间,同时小的训练集非常容易产生过拟合。

    6、对于下采样,如果计算资源相对较多且有良好的并行环境,应该选择Ensemble方法。

    在处理分类问题过程中,数据的不平衡分布,往往对分类结果产生比较大的影响。以下是针对二项分类的数据不平衡问题进行分析。

    1) 可以扩大数据样本?

          扩大数据样本是一个容易被忽视的选择。在集合中,一个更大的数据集,就有有可能挖掘出不同的或许更平衡的方面。之后当寻找重复采集的数据样本时,一些小样本类数据的例子可能是有帮助的。

    2)绩效标准的选择

          混淆矩阵:将要预测的数据分到表里来显示正确的预测,并了解其不正确的预测类型。

          精度:(准确率/命中率)一种分类准确性的处理法。

          召回率:又称“查全率”,一种分类完整性的处理方法。

          F1分数(F-score):精度和召回率的加权平均。

          kappa(Cohen's kappa):根据数据集合中数据的不平衡点来标准化分类精度。

          ROC曲线:类似于精度和召回率,准确性被分为敏感性和特异性,并且可以基于这些值的平衡阈值来进行选择。

    3)数据的重新抽样

          主要采用以下两种方法:

          a)过抽样:通过复制少数类样本

          b)欠抽样:删除多数类样本

          一些经验规则:

    当数据量很大的时候可以考虑测试欠抽样(大于一万条记录)

    当数据量比较少时,可以考虑过抽样

    考虑随机和非随机的抽样方案(例如分层)

    考虑不同的重抽样比率(例如1:1 ,1:2等),比较结果

    4) 尝试生成人工样本

          一种简单的生成人工样本的方法是从少数类的实例中随机抽样属性。

          在数据集中,可以根据经验对数据集抽样或者可以使用类似于朴素贝叶斯这种可以在反向运行时,对每个属性进行独立抽样的模型。

          比较常见的算法SMOTE(Syntheic Minority

    Over-sampling),属于过度抽样的方法。原理是从少数类样本数据中生成人工样本,而不是创建副本。该算法选择连个或更多个类似的例子(使用距离度量),然后随机干扰一个实例中的一个属性,比较器差异。

    SMOTE的深入了解,参考论文  “SMOTE:Syntheic Minority Over-sampling Technique” 

          SMOTE的实现:

    在 Python中,“UnbalanceDataset”模块,提拱了许多SMOTE的实现方法,以及各种抽样技术,

    在R中,DMwR包中提拱了SMOTE的实现方法

    Weka中,可以使用SMOTE supervised filter

    5)尝试不同的算法

         决策树算法在处理不平衡数据集的表现不错。流行的决策树算法有C5.0、CART、随机森林。

    6)尝试名义变量模型

    7)从不同的观点进行思考

         异常检测和变化检测

         异常检测是罕见事件的检测。这种思维的转变在于考虑以小磊作为异常值类,它可以帮助获得一种新方法来分离和分类样本。

    8)尝试新的方法

         可以思考将大问题分解成小问题。

    相关文章

      网友评论

          本文标题:机器学习:如何解决机器学习中数据不平衡问题

          本文链接:https://www.haomeiwen.com/subject/allfoxtx.html