Adaboost算法笔记

作者: __jwzhang__ | 来源:发表于2017-08-31 22:27 被阅读128次

背后的思想:对于一个复杂的任务,讲多个专家的判定进行适当的综合得出的判断,要比其中任何一个专家单独的判断好。(三个臭皮匠赛过诸葛亮)

再概率近似正确学习的框架中:
  • 强可学习:存在一个多项式的学习算法,并且它的正确率很高
  • 弱可学习:存在一个多项式的学习算法,它的正确率比随机猜想好
  • 强可学习和弱可学习等价

找到弱可学习的方法比较容易,最出名的就是 Adaboost算法。

对于提示算法处理分类问题:

  • 每一轮如何改变数据的权值或者概率分布
  • 如何将弱分类器组合成一个强分类器

Adaboost的套路是:1. 训练的时候提高弱分类器错误分类样本的权值,这样可以更加关注没有正确分类的数据;2. 采取加权多数表决的方法,加大分类错误率小的弱分类器的权值,使其再表决中起较大的作用。

算法流程

image.png image.png image.png

AdaBoost 算法的解释:AdaBoost算法的模型是加法模型、损失函数为指数函数、学习算法为前进分步算法时的二类分类学习方法。


提升树算法---以分类树或者回归树为基本分类器的提升方法,其被认为是统计学习中性能最好的方法之一。 [加法模型(基函数的线性组合) + 前向分布算法]

image.png

以决策树为基函数的提升方法称为提升树(boosting tree). 对分类问题决策树是二叉树,对于回归问题决策树是二叉回归树。

算法简介

首先确定初始提升书f0(x)=0, 第m步模型为:

image.png image.png image.png

梯度提升算法

Freidman提出了梯度提升算法(Gradient Boosting), 其关键是利用损失函数的负梯度再当前模型的值作为回归问题提升树算法中的残差的近似值,拟合一个回归树。

image.png

未完待续...

相关文章

  • 提升方法

    提升方法 提升方法 AdaBoost 算法 AdaBoost算法的训练误差分析 AdaBoost算法的解释 提升树...

  • 第8章 Adaboost算法

    内容 一、Adaboost简介 二、Adaboost算法过程 三、Adaboost算法的训练误差分析 四、Adab...

  • 集成算法整理

    一.AdaBoost的算法 在学习adaboost算法前先要弄清楚前向分布算法,因为AdaBoost是前向分布加法...

  • Adaboost算法简介

    Adaboost算法 Adaboost算法是一种有监督的学习方法,是基于Adaboost算法的分类器把若干个分类器...

  • Adaboost算法笔记

    背后的思想:对于一个复杂的任务,讲多个专家的判定进行适当的综合得出的判断,要比其中任何一个专家单独的判断好。(三个...

  • 4. AdaBoost 自适应推进

    1.名词解释 Boost(推进),adaboost(adapt boost)自适应推进算法:Adaboost算法是...

  • GBDT集成算法(梯度提升树)

    一、算法思想 GBDT是集成学习Boosting算法中的一种,它与Adaboost相比,Adaboost算法利用...

  • 04 集成学习 - Boosting - AdaBoost算法构

    03 集成学习 - Boosting - AdaBoost算法原理 十、AdaBoost算法构建 上一章最后说明了...

  • adaboost和xgboost的区别和联系

    机器学习算法中GBDT与Adaboost的区别与联系是什么? Adaboost Adaboost是模型为加法模型,...

  • AdaBoost 算法

    参考Blog: adaBoost算法 参考书籍: 《机器学习实战》 参考书籍: Adaboost是一种迭代算法,其...

网友评论

    本文标题:Adaboost算法笔记

    本文链接:https://www.haomeiwen.com/subject/cfkfjxtx.html