美文网首页
集成学习各方法的理解

集成学习各方法的理解

作者: 任海亮 | 来源:发表于2016-09-06 13:30 被阅读0次

统计方法
bootstraping(自助法)源自“pull up by your own boot straps”
有放回抽样,多轮抽样分析
这是统计学的一种分析方法

应用:
bagging (bootstrap aggregating)
多轮随机有放回抽样(因为有放回,通常包括63%原数据)
训练结果预测函数多数投票
均匀抽样,预测函数无权重

效果:reduce variance

boosting
抽样有权重
每轮抽样考虑前所有轮训练结果,对错误率大的加大权重
预测函数有权重,按权重投票

gradient boosting
运用梯度下降方法改进模型:改进BIAS

random forest
决策树的集合
抽样分行采样,列采样
每颗决策树:1.随机有放回抽取样本,2.选取部分feature而不是全部 (对feature也做了抽样)【与bagging的区别】
平均投票

效果:进一步降低 variance, and robust to noise
generlization error无偏估计

一般prediction的误差可以分解为:bias variance noise
集成学习的目的就是降低误差率

相关文章

  • 集成学习各方法的理解

    统计方法bootstraping(自助法)源自“pull up by your own boot straps”有...

  • CV-模型集成

    集成学习方法 集成学习能够提高预测精度,常见的集成学习方法有stacking、bagging和boosting,同...

  • Task5 模型集成

    这次主要学习的知识点是:集成学习方法、深度学习中的集成学习和结果后处理思路。 1、集成学习方法 在机器学习中的集成...

  • Task05: 模型集成

    一般的集成学习方法 深度学习中的集成方法 0. 在机器学习中的一般集成方法 模型集成即把同一学习任务的多个独立(弱...

  • 集成学习

    集成学习与个体学习器 集成学习是机器学习中常用的一种方法,常用的集成学习方法有boosting,bagging以及...

  • Jetpack 学习--Databinding 集成

    Jetpack 学习--Databinding 集成 1. 集成方法 集成方式如下: 方法1 (此方法在 grad...

  • 机器学习中的集成方法(3)--Boosting(分步法)

    一、概念理解 Boosting 是指个体学习器之间存在强依赖关系,必须串行序列化生成的集成学习方法。Boostin...

  • AdaBoost模型

    集成学习是目前很流行的一种机器学习方法,kaggle比赛取得好成绩的队伍几乎都是用的集成学习。 一、集成学习 集成...

  • Datawhale 零基础入门CV赛事-Task5 模型集成

    5 模型集成 本章讲解的知识点包括:集成学习方法、深度学习中的集成学习和结果后处理思路。 5.1 学习目标 学习集...

  • Datawhale 零基础入门CV赛事-Task5 模型集成

    最后一章,将会学习如何使用集成学习提高预测精度,通过学习知道集成学习方法以及交叉验证情况下的模型集成,最终学会使用...

网友评论

      本文标题:集成学习各方法的理解

      本文链接:https://www.haomeiwen.com/subject/vgydettx.html