GBDT算法梳理

作者: 凌霄文强 | 来源:发表于2019-04-07 16:20 被阅读0次

前向分布算法

前向分步算法

负梯度拟合

伪残差

使用负梯度作为伪残差拟合决策树。

损失函数

均方误差
L(y, h(x))=(y-h(x))^{2}

回归

二分类,多分类

正则化

优缺点

优点

  • 预测精度高
  • 适合低维数据
  • 能处理非线性数据
  • 可以灵活处理各种类型的数据,包括连续值和离散值。
  • 在相对少的调参时间情况下,预测的准备率也可以比较高。这个是相对SVM来说的。
  • 使用一些健壮的损失函数,对异常值的鲁棒性非常强。比如 Huber损失函数和Quantile损失函数。

缺点:

  • 由于弱学习器之间存在依赖关系,难以并行训练数据。不过可以通过自采样的SGBT来达到部分并行。
  • 如果数据维度较高时会加大算法的计算复杂度

sklearn参数

  • 划分时考虑的最大特征数max_features: 可以使用很多种类型的值,默认是"None",意味着划分时考虑所有的特征数;如果是"log2"意味着划分时最多考虑log2Nlog2N个特征;如果是"sqrt"或者"auto"意味着划分时最多考虑N−−√N个特征。如果是整数,代表考虑的特征绝对数。如果是浮点数,代表考虑特征百分比,即考虑(百分比xN)取整后的特征数。其中N为样本总特征数。一般来说,如果样本特征数不多,比如小于50,我们用默认的"None"就可以了,如果特征数非常多,我们可以灵活使用刚才描述的其他取值来控制划分时考虑的最大特征数,以控制决策树的生成时间。
  • 决策树最大深度max_depth: 默认可以不输入,如果不输入的话,决策树在建立子树的时候不会限制子树的深度。一般来说,数据少或者特征少的时候可以不管这个值。如果模型样本量多,特征也多的情况下,推荐限制这个最大深度,具体的取值取决于数据的分布。常用的可以取值10-100之间。
  • 内部节点再划分所需最小样本数min_samples_split: 这个值限制了子树继续划分的条件,如果某节点的样本数少于min_samples_split,则不会继续再尝试选择最优特征来进行划分。 默认是2.如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。
  • 叶子节点最少样本数min_samples_leaf: 这个值限制了叶子节点最少的样本数,如果某叶子节点数目小于样本数,则会和兄弟节点一起被剪枝。 默认是1,可以输入最少的样本数的整数,或者最少样本数占样本总数的百分比。如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。
  • 叶子节点最小的样本权重和min_weight_fraction_leaf:这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝。 默认是0,就是不考虑权重问题。一般来说,如果我们有较多样本有缺失值,或者分类树样本的分布类别偏差很大,就会引入样本权重,这时我们就要注意这个值了。
  • 最大叶子节点数max_leaf_nodes: 通过限制最大叶子节点数,可以防止过拟合,默认是"None”,即不限制最大的叶子节点数。如果加了限制,算法会建立在最大叶子节点数内最优的决策树。如果特征不多,可以不考虑这个值,但是如果特征分成多的话,可以加以限制,具体的值可以通过交叉验证得到。
  • 节点划分最小不纯度min_impurity_split: 这个值限制了决策树的增长,如果某节点的不纯度(基于基尼系数,均方差)小于这个阈值,则该节点不再生成子节点。即为叶子节点 。一般不推荐改动默认值1e-7。

应用场景

GBDT几乎可用于所有回归问题(线性/非线性),相对logistic regression仅能用于线性回归,GBDT的适用面非常广。亦可用于二分类问题(设定阈值,大于阈值为正例,反之为负例)。

相关文章

  • GBDT算法梳理

    前向分布算法 负梯度拟合 使用负梯度作为伪残差拟合决策树。 损失函数 均方误差 回归 二分类,多分类 正则化 优缺...

  • (二):GBDT算法梳理

    GBDT(Gradient Boosting Decision Tree)是一种采用加法模型(即基函数的线性组合)...

  • GBDT源码分析之一 :总览

    0x00 前言 这个系列将会对python的scikit-learn算法包中GBDT算法的源码实现做一个深入梳理和...

  • 集成学习之Boosting-gbdt

    一、什么是GBDT 二、GBDT与传统Adaboost的不同之处 三、GBDT的负梯度拟合 四、GBDT算法流程 ...

  • GBDT--原来是这么回事(附代码)

    1. 解释一下GBDT算法的过程 GBDT(Gradient Boosting Decision Tree),全名...

  • GBDT常见面试问题

    1. 解释一下GBDT算法的过程 GBDT(Gradient Boosting Decision Tree),全名...

  • 【西瓜书】第8章 集成学习

    GBDT GBDT的算法过程: GBDT工作过程实例。 还是年龄预测,简单起见训练集只有4个人,A,B,C,D,他...

  • GBDT算法

    1 决策树分类: 2 GBDT(Gradient Boosting Decision Tree | 梯度提升决策...

  • GBDT 算法

    GBDT (GradientBoostingDecisionTree) 梯度提升迭代决策树。GBDT 也是 Boo...

  • 决策树之 GBDT 算法 - 分类部分

    上一次我们一起学习了 GBDT 算法的回归部分,今天我们继续学习该算法的分类部分。使用 GBDT 来解决分类问题和...

网友评论

    本文标题:GBDT算法梳理

    本文链接:https://www.haomeiwen.com/subject/kwtkiqtx.html