Boosting

作者: 士多啤梨苹果橙_cc15 | 来源:发表于2017-08-09 14:13 被阅读0次

    Boosting思想

    GBDT是对于基函数进行权值的提升

    Boosting的思想是对样本进行权值的赋予,对于每次分错类的权值增大,分对类的权值降低

    举例adaboost(如何对样本和分类器的权值进行调整?)

    使用具有权值的分布Dm的训练数据集学习,得到基本分类器

    计算Gm(x)在训练数据集上的分类误差率:

    计算Gm(x)的系数

    表示当前分类器Gm的权值

    构建基本分类器的线性组合

    得到最终分类器

    alpham不仅可以用在分类器上,也可以用在样本上

    更新训练数据集的权值分布

    其中yi表示1或-1,Zm是规范因子

    它的目的是让Dm+1成为一个概率分布

    Adaboost算法解释

    Adaboost算法是模型为加法模型,损失函数为指数函数,学习方法为前向分布算法时的二分类学习算法

    权值和错误率的关键解释

    事实上,根据AdaBoost的构造过程,权值的调整公式为

    二者相除,得到

    从而

    Adaboost算法可以看作是采用指数损失函数的提升方法,其每个基函数的学习为前向分步算法

    Adaboost的训练误差是指数下降的

    Adaboost算法不需要事先知道下界gamma,具有自适应性,它能自适应弱分类器的训练误差。

    之所以我们重视adaboost和随机森林是因为它们好调参,使用上没有那么多门槛

    相关文章

      网友评论

          本文标题:Boosting

          本文链接:https://www.haomeiwen.com/subject/whpfrxtx.html