美文网首页ML&DL
Bagging vs Boosting vs Stacking

Bagging vs Boosting vs Stacking

作者: cherryleechen | 来源:发表于2019-05-03 13:38 被阅读9次
  • Bagging
    用于减小方差。
    使用训练数据的不同随机子集(大小常等于训练数据,采用不放回的方式进行抽取)来训练每个base model,最后对每个base model进行权重相同的vote。分类问题取众数,回归问题取均值。
    并行。
    希望每个base model训练得要足够好,overfit也可以。

  • Boosting
    用于减小偏差。
    迭代地训练base model,每一次会根据上一次迭代中预测错误的情况修改训练样本的权重。
    串行。
    希望每个base model训练得比随机猜好就行。

bagging boosting
样本选择 训练集是在原始集中有放回地进行选取的,选出的各个训练集之间被认为是相互独立的(其实不是)。 每一轮的训练集保持不变,只是训练集中的每个样本在分类器中的权重发生了变化。权重是根据上一轮的结果进行调整的。
样例权重 均匀取样,每个样例权重相等。 根据错误率不断地调整样例权重,错误率越大则对应的权重越高。
预测函数 所有预测函数权重相等。 每个弱分类器都有相应的权重,分类误差小的分类器会有更大的权重。
并行计算 各个预测函数可以并行生成。 各个预测函数只能顺序生成。因为后一个模型的参数更新需要前一个模型的预测结果。
  • Stacking
    用于提升预测结果。
    输入level-2的是level-1的预测结果。
    还有一种是将level-1输出的prob的1~N列与原始数据组成新的特征向量,向量维度变为原始数据特征维度+N,再训练level-2模型。

相关文章

  • Bagging vs Boosting vs Stacking

    Bagging用于减小方差。使用训练数据的不同随机子集(大小常等于训练数据,采用不放回的方式进行抽取)来训练每个b...

  • Ensemble

    集成学习(ensemble learning):Stacking,boosting,bagging(bootstr...

  • 机器学习-集成学习

    outline 集成学习 Boosting Bagging 随机森林 结合策略 Stacking 集成学习(ens...

  • 随机森林04

    一、Bagging vs Boosting 二、RFC的参数列表 三、 RFC的属性列表 四、 RFC的接口列表

  • Bagging、Boosting、Stacking小结

    Bagging :独立的集成多个模型,每个模型有一定的差异,最终综合有差异的模型的结果,获得学习的最终的结果;Bo...

  • 面试准备基础算法篇

    机器学习: 继承学习:bagging、boosting、stacking的区别 指标:准确率、召回率、f1、auc...

  • 集成学习--bagging、boosting、stacking

    集成学习(ensemble learning) 通过构建并结合多个学习器来完成学习任务。 如何产生“好而不同”的个...

  • 集成学习方法(组合分类器)

    1. 引言   典型的集成学习方法有bagging, boosting以及随机森林,stacking也是一种集成学...

  • CV-模型集成

    集成学习方法 集成学习能够提高预测精度,常见的集成学习方法有stacking、bagging和boosting,同...

  • 机器学习-知识点汇总

    list: bagging和boosting的区别 决策树 Bagging和Boosting 概念及区别 1)样本...

网友评论

    本文标题:Bagging vs Boosting vs Stacking

    本文链接:https://www.haomeiwen.com/subject/dkhgnqtx.html