集成学习

作者: 老居搞机 | 来源:发表于2020-03-29 13:25 被阅读0次

俗话说"三个臭皮匠顶个诸葛亮",集成学习正是基于这个思想来做的。
将很多个基学习器(可以是LR,决策树等任何算法模型)组合在一起来做决策就是集成学习了,如图:

按照各个基学习器的组合方式,集成学习又可分为Bagging和Boosting,比如说狼人杀中把每个人当成一个基学习器,一个接一个发言表决就叫Boosting,所有人一起表决那么就是Bagging了,这么说来玩狼人杀还是在训练集成模型了

Bagging

Bagging各个基学习器相互之间是独立的,最后通过平均法或者加权法得出最后的结果, 如图:

  • 像Random Forest, 就是典型的Bagging算法, 它构建每个基学习器(决策树):
1.用N来表示训练用例(样本)的个数,M表示特征数目。
输入特征数目m,用于确定决策树上一个节点的决策结果;其中m应远小于M。
2.从N个训练用例(样本)中以有放回抽样的方式,取样N次,形成一个训练集(即bootstrap取样),并用未抽到的用例(样本)作预测,评估其误差。
3.对于每一个节点,随机选择m个特征,决策树上每个节点的决定都是基于这些特征确定的。根据这m个特征,计算其最佳的分裂方式。
4.每棵树都会完整成长而不会剪枝(Pruning,这有可能在建完一棵正常树状分类器后会被采用)

Boosting

Boosting是先根据样本训练第一个基学习器,在这个学习器的基础上继续训练下一个基学习器,直到残差满足需求再进行组合输出, 如图:

像AdaBoost、GBDT、XGBoost都是属于Boosting算法

  • AdaBoost:

  • GBDT:

好了本期主要介绍了下集成学习,下期会详细说下GBDT,敬请期待

参考


个人公众号

相关文章

  • 11 集成学习 - XGBoost案例 - 波士顿房价进行预测

    08 集成学习 - XGBoost概述09 集成学习 - XGBoost公式推导10 集成学习 - XGBoost...

  • 2019-03-02

    ML——集成学习 个体与集成 集成学习:构建并结合多个学习器来完成学习任务。 同质:集成中只包含同种类型的个体学习...

  • 3.1.1.8 集成学习

    集成学习 原理 《机器学习》周志华 8.1 个体与集成 集成学习(ensemble learning) 通过构建并...

  • 10.machine_learning_model_ensemb

    机器学习集成学习与boosting模型 机器学习中的集成学习 顾名思义,集成学习(ensemble learnin...

  • 西瓜书学习笔记-集成学习

    集成学习 个体与集成 集成学习通过构造多个学习器来完成学习任务。集成学习的构造是先产生一组个体学习器,然后用某种策...

  • Task5 模型集成

    这次主要学习的知识点是:集成学习方法、深度学习中的集成学习和结果后处理思路。 1、集成学习方法 在机器学习中的集成...

  • AdaBoost模型

    集成学习是目前很流行的一种机器学习方法,kaggle比赛取得好成绩的队伍几乎都是用的集成学习。 一、集成学习 集成...

  • CV-模型集成

    集成学习方法 集成学习能够提高预测精度,常见的集成学习方法有stacking、bagging和boosting,同...

  • 集成学习

    集成学习与个体学习器 集成学习是机器学习中常用的一种方法,常用的集成学习方法有boosting,bagging以及...

  • 使用sklearn进行集成学习 理论与实践 Random For

    《使用sklearn进行集成学习——理论》 《使用sklearn进行集成学习——实践》

网友评论

    本文标题:集成学习

    本文链接:https://www.haomeiwen.com/subject/heosuhtx.html