美文网首页机器学习:原理及实现
集成学习原理(Ensemble Learning)

集成学习原理(Ensemble Learning)

作者: d518a9b6ae51 | 来源:发表于2019-05-26 20:56 被阅读0次

    项目地址:https://github.com/Daya-Jin/ML_for_learner
    原博客:https://daya-jin.github.io/2018/08/15/EnsembleLearning/

    Ensemble Learning

    Bagging

    前文说到树模型不稳定,那么怎么减少模型的variance?假设有n个独立变量Z_{1}Z_{2}、……、Z_{n},每个变量的方差都为\sigma^{2},那么变量\bar{Z}的方差为\sigma^{2}/n,可以看到均化可以减少方差。

    Bagging(bootstrap aggregation)的思想就是在原数据集中进行多次抽样得到多个训练子集,再在这些训练子集上分别训练多个模型,最后把这些模型的预测结果均化即可。

    假设有训练集X,经过B轮有放回的抽样得到B个训练子集[X_{1}, X_{2}, ..., X_{B}],分别在这些训练子集上训练得到B个模型[f_{1}(x), f_{2}(x), ..., f_{B}(x)],然后将所有模型的输出均化作为预测结果,即:

    \hat{Y}_{bagging}=\frac{1}{B}\sum_{i=1}^{B}\hat{f}_{i}(x)

    对于分类问题,预测输出是无量纲的离散值,无法均化,采用投票机制即可。

    Bagging算法中模型的个数B不是一个很重要的参数,因为B在过大时也不会发生过拟合。Bagging算法中最关键的一环就是采样,有以下几种策略:

    • 随机选取一个子集,叫做Pasting
    • 有放回的抽样得到一个子集,叫做Bagging,可以证明有放回的抽样最多只会抽到2/3的样本
    • 随机选取一个特征子集,叫做随机子空间(subspace sampling)
    • 如果同时随机选取样本子集与特征子集,叫做Random Patches

    通常使用的就是bagging抽样,注意到使用有放回抽样的bagging算法最多只会抽样原样本集的2/3数据,那么剩下的1/3数据就可以用来做线下验证,所以使用bagging算法的模型不需要做CV,直接使用未被抽样的数据来做验证,这种策略叫做包外误差估计(out-of-bag Error Estimation)。

    树模型+bagging

    决策树模型原本的优点就是它的强解释性,而缺点就是模型有较大的方差,而在使用bagging之后,其解释性被减弱了,但是其方差也被大大降低了,这是一种权衡策略。另一方面,虽然bagging算法使得决策树模型不再具有可解释性,但是却可以得出一个特征重要性(feature importance)。在使用bagging算法生成树时,可以记录每个特征在B棵树以该特征分裂时所降低的一个平均误差或平均基尼指数,然后以该值排序就可以得到一个特征重要性排名。

    Random Forest

    假设数据中有一个或数个强特征,那么在bagging算法中,虽然每棵树使用了不同的数据子集,但是每棵树在做顶层分裂时总是会根据最强的那几个特征来做分裂,这样就造成了bagging中每棵树的相似度很高,学到的内容相似,树之间有很高的相关性。对不满足iid条件的变量做均化并不能降低太多的方差。前文提到了一种同时选取样本子集与特征子集的抽样方法,那么可以借鉴Random Patches的思想来降低树之间的相关性,这种策略叫做解耦(decorrelate)。

    假定训练集Xn个特征Z_{1}Z_{2}、……、Z_{n},经过B轮有放回的抽样得到B个训练子集[X_{1}, X_{2}, ..., X_{B}],同样在这B个训练集上训练B个树模型[f_{1}(x), f_{2}(x), ..., f_{B}(x)],Random Forest与Bagging唯一的不同就在于每个树模型的训练过程。bagging在每棵树生成时会在当前样本子集所有特征中找一个最佳分割点进行分裂,而random forest在每次分裂时只会随机选取一个特征子集做分裂,随机选取的特征子集大小一般为p=\sqrt{n}

    实现指导:分类回归

    完整代码:分类回归

    Boosting

    不同于bagging,boosting算法是一种串行修正算法,在同一个训练集上串行训练多个模型,每一个模型会针对上一个模型的错误进行修正。下面首先以二分类的AdaBoost做示例讲解。

    AdaBoost

    现有训练集XY,数据共有n个样本[x_{1},x_{2},...,x_{n}],AdaBoost算法流程如下:

    1. 初始化数据样本的权重,所有样本权重相等,w_{i}=\frac{1}{n}
    2. 在带权数据集上训练一个模型f_{1}(x),并计算该模型在训练集上的加权平均误差err_{1}=\frac{\sum_{i=1}^{n}w_{i}I(y_{i}{\ne}f_{1}(x_{i}))}{\sum_{i=1}^{n}w_{i}}
    3. 根据模型的表现给模型赋一个权重系数\alpha_{1}={\log}(\frac{1}{err_{1}}-1)
    4. 根据模型的表现给样本重新分配权重,w_{i}:=w_{i}{\cdot}exp[\alpha_{1}{\cdot}I(y_{i}{\ne}f_{1}(x_{i}))]
    5. 重复2,3,4步,串行训练得到k个模型[f_{1}(x),f_{2}(x),...,f_{k}(x)],整个算法的输出为

    F(x)=sign(\sum\limits_{i=1}^{k}\alpha_{i}f_{i}(x))

    需要注意的有两点:

    在第3步计算模型权重时,注意到当err=\frac{1}{2}(随机猜)时\alpha=0,当err>\frac{1}{2}\alpha<0,当err<\frac{1}{2}\alpha>0,即对那些好于随机猜的模型会赋予一个正权重,而对那些还不如随机猜的模型赋予一个负权重;

    另一个,在对样本重新分配权重时,注意到当\alpha_{1}{\cdot}I(y_{i}{\ne}f_{1}(x_{i}))>0时,样本的权重才会增大,反之会减小,而等于零时则权重不变。且注意到AdaBoost只会改变被误分类样本的权重,而在需要改变权重I(y_{i}{\ne}f_{1}(x_{i}))=1的条件下,样本权重的更改量只取决于模型权重\alpha,而模型权重\alpha又取决于模型的分类误差err,所以可以看出:减小那些被err>\frac{1}{2}模型误分类样本的权重,增大那些被err<\frac{1}{2}模型误分类样本的权重。

    实现指导

    完整代码

    增量Boosting

    增量Boosting是boosting的一个变种算法,该算法在同一个数据集上同样串行训练得到k个模型,最后整个算法的输出是这些模型的线性加权:

    F(x)=\sum_{i=1}^{k}\beta_{i}f_{i}(x;\theta_{i})

    那么其优化问题可表示为:

    arg \min\limits_{\beta,\theta} \sum_{i=1}^{n}L(y_{i},\sum_{j=1}^{k}\beta_{j}f_{j}(x_{i};\theta_{j}))

    其中L(y_{i},f(x_{i}))为损失计算函数。上述优化问题计算复杂很难解,下面介绍一种基于贪心策略的优化方法。

    基于贪心策略的增量Boosting算法流程如下所述:

    1. 初始化一个空模型f_{0}(x)=0
    2. 以已有模型为基础,训练一个增量模型b_{1}(x;\theta_{1}),令当前模型为f_{1}(x)=f_{0}(x)+\beta_{1}b_{1}(x;\theta_{1})
    3. 当前模型的训练问题可表示成:arg \min\limits_{\beta_{1},\theta_{1}}\sum\limits_{i=1}^{n}L(y_{i},f_{0}(x)+\beta_{1}b_{1}(x_{i};\theta_{1}))
    4. 重复第2,3步,最后得到k个模型[b_{1}(x),b_{2}(x),...,b_{k}(x)],整个算法模型为f(x)=\sum\limits_{i=1}^{k}\beta_{i}b_{i}(x;\theta_{i})

    上述增量boosting算法也叫做前向增量建模(Forward Stagewise Additive Modeling)。然后以一个简单例子来进一步探讨此算法。

    取损失函数为平方误差L(y_{i},f(x_{i}))=(y_{i}-f(x_{i}))^{2},那么在增量boosting第m轮时的损失函数可以写成:

    \begin{aligned} \sum_{i=1}^{n}L(y_{i},f_{m}(x_{i}))&=\sum_{i=1}^{n}L(y_{i},f_{m-1}(x_{i})+\beta_{m}b_{m}(x_{i};\theta_{m})) \\ &=\sum_{i=1}^{n}(y_{i}-f_{m-1}(x_{i})-\beta_{m}b_{m}(x_{i};\theta_{m}))^{2} \\ &=\sum_{i=1}^{n}(r_{i,m-1}-\beta_{m}b_{m}(x_{i};\theta_{m})^{2} \\ &=\sum_{i=1}^{n}L(r_{i,m-1},\beta_{m}b_{m}(x_{i};\theta_{m}) \\ \end{aligned}

    其中,r_{i,m-1}称为第m-1轮的模型对第i个样本的预测残差。通过上述变换可以看出,增量boosting算法第m轮所训练的增量模型\beta_{m}b_{m}(x_{i};\theta_{m})拟合的其实是上一轮模型的残差。

    AdaBoost等价于使用指数损失函数的增量Boosting

    取损失函数为指数损失函数:

    L(y,\hat{y})=exp(-y{\cdot}\hat{y})

    那么增量boosting问题可以写成:

    (\beta_{m},\theta_{m})=\arg\min\limits_{\beta,\theta}\sum\limits_{i=1}^{n}exp[-y_{i}(f_{m-1}(x_{i})+\beta_{m}b_{m}(x_{i};\theta_{m}))]

    待补充

    GBM

    在之前所讲过的一系列模型中,对于参数优化问题,有一种通用解法就是梯度下降法:

    \theta:=\theta-\alpha\frac{\partial L(y,f(x))}{\partial f(x)}

    而增量boosting模型可以写成:

    f(x):=f(x)+{\beta}b(x)

    仅仅受表达形式上的启发,就可以很容易想到:把模型f(x)当做需要优化的参数,令每一轮的新模型b(x)去拟合负梯度,那么就可以借鉴梯度下降法的思想来得到一个最优或次优模型,由此引出梯度提升机(Gradient Boosting Machine)的概念。增量boosting模型在第m轮时的损失可以写成:

    \begin{aligned} \sum_{i=1}^{N}L(y_{i},f_{m}(x_{i}))&=\sum_{i=1}^{N}L(y_{i},f_{m-1}(x_{i})+\beta_{m}b_{m}(x_{i};\theta_{m})) \\ &=\sum\limits_{i=1}^{N}L(y_{i},f_{m-1}(x_{i}))+\beta_{m}\sum\limits_{i=1}^{N}g_{i,m}b_{m}(x_{i};\theta_{m}) \\ \end{aligned}

    其中g_{i,m}=\frac{\partial L(y_{i},f_{m-1}(x_{i}))}{\partial f_{m-1}(x_{i})}$$,$$L(y_{i},f_{m-1}(x_{i}))称为伪残差。在上式中,\sum_{i=1}^{N}L(y_{i},f_{m-1}(x_{i}))是常数,要想最小化\sum_{i=1}^{N}L(y_{i},f_{m}(x_{i})),易得b_{m}(x_{i};\theta_{m})必须要跟g_{i,m}异号,这样才能修正上一轮的错误以减小损失值。受上面梯度下降法的启发,令:

    b_{m}(x_{i};\theta_{m})=-g_{i,m}

    即训练一个新模型去拟合伪残差关于上一轮模型f_{m-1}的负梯度,那么GBM算法的优化问题可以写成:

    \theta_{m}=\arg\min\limits_{\theta}\sum\limits_{i=1}^{n}L(g_{i,m},b_{m}(x_{i};\theta_{m}))

    未出现的参数\beta_{m}即学习率。特别地,当每轮的基模型使用树模型时,这种GBM被称为梯度提升树(Gradient Boosted Decision Trees)。在GBDT理论中,对于树的基模型怎么生成并没有做具体规定,不过最常用的基模型还是CART,背后的核心思想是梯度下降法。

    相关文章

      网友评论

        本文标题:集成学习原理(Ensemble Learning)

        本文链接:https://www.haomeiwen.com/subject/mjoftctx.html