美文网首页
Bagging 和 Boosting 的区别

Bagging 和 Boosting 的区别

作者: _曹杰 | 来源:发表于2018-11-27 16:01 被阅读0次

1)样本选择上:

Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

2)样例权重:

Bagging:使用均匀取样,每个样例的权重相等。

Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

3)预测函数:

Bagging:所有预测函数的权重相等。

Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

4)并行计算:

Bagging:各个预测函数可以并行生成。

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

因此,Gradient Boosting Trees 的中间树不是相互独立的,因为前一棵树的结果影响下一棵树。Random Forest 的中间树相互独立,因此可以并行生成这些树。

在这两种算法中,我们使用随机特征集来生成中间树。

Gradient Boosting Trees 并不总比 Random Forest 好,依赖于数据。

作者:红色石头

链接:https://zhuanlan.zhihu.com/p/41527631

来源:知乎

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

相关文章

  • 机器学习-知识点汇总

    list: bagging和boosting的区别 决策树 Bagging和Boosting 概念及区别 1)样本...

  • Bagging 和 Boosting 的区别

    1)样本选择上: Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。 Boo...

  • Bagging 和Boosting 概念和区别

    Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准...

  • 《统计学习方法》之随机森林Random Forest

    1. Bagging和Boosting 在集成学习方法中,Bagging和Boosting是具有代表性的两大方法,...

  • 2020-04-24

    达达算法面试:1、随机森林2、boosting和bagging区别3、衡量模型好坏的方法4、python yiel...

  • Bagging 和 Boosting

    区别: 1)样本选择上: Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。...

  • boosting和bagging

    深度学习158页中提到集成的平方误差的期望会随着集成的规模的增大而线性减小。 boosting是利用多个弱分类器,...

  • boosting和bagging

    bagging算法思想: ① 对于一个给定的含有n个训练样本的数据集D={x1,x2,.....xn}; ② 重复...

  • Boosting

    序 boosting是集成学习中的一个大家族,本次记录boosting的相关概念以及与bagging的区别。 bo...

  • 2019-05-09

    Bagging 提升 Boosting 推进

网友评论

      本文标题:Bagging 和 Boosting 的区别

      本文链接:https://www.haomeiwen.com/subject/dhwmixtx.html