美文网首页
Boosted Tree

Boosted Tree

作者: Jakai | 来源:发表于2017-08-07 16:16 被阅读0次

作为一个非常有效的机器学习方法,Boosted Tree是数据挖掘和机器学习中最常用的算法之一。因为它效果好,对于输入要求不敏感,往往是从统计学家到数据科学家必备的工具之一,它同时也是Kaggle比赛冠军选手最常用的工具。Boosted Tree有各种马甲,比如GBDT(Gradient Boosting Decision Tree), GBRT(Gradient Boosting Regression Tree)以及MART(Multiple Additive Regression Tree)。很多介绍Boosted tree的资料都是源于Friedman的较早的一篇文章[1]。

1. 分类和回归树(CART)

图 1. CART示意图

上面就是一个CART的例子。CART会把输入根据输入的属性分配到各个叶子节点,而每个叶子节点上面都会对应一个实数分数。问题:预测一个人是否会喜欢电脑游戏。可以把叶子的分数理解为这个人喜欢电脑游戏的可能性。CART可以理解为是decision tree的一个扩展。从简单的类标到分数之后,似乎能做更多的事情了(例如概率预测或是排序)。

2. Tree ensemble

同样类比Random Forest的思想,当一棵树解决不了问题时,可以将几棵树联起来。


图2. Tree ensemble示意图

图2的例子中,我们用两棵树来进行预测。我们对于每个样本的预测结果就是每棵树预测分数的和。我们常见的随机森林和boosted tree和tree ensemble有什么关系呢?它们都是ensemble,只是构造模型参数的方法不同。

3. 模型学习

模型中的参数是什么?在tree ensemble中,参数对应了树的结构,以及每个叶子节点上面的预测分数。同样需要先定义合理的目标函数(一般会包括loss function 以及 regularizer ),然后尝试优化目标函数。对于tree ensemble,可以将模型写成为:


图3. Additive training示意图
3.1 目标函数的定义

在图3中,如何选择每一轮加入什么样的fk呢?可以选取一个fk来使得我们的目标函数最大化的降低 。目标函数包括损失函数和正则化项。

图4. 目标函数的构成

目标函数 = 损失函数 + 正则项


目标函数 图5. 近似目标函数
3.2 树的复杂度

树的复杂度就是目标函数中的正则化项。将树拆分成结构部分q 和叶子权重部分 w 。图6是一个具体的例子。结构函数q把输入映射到叶子的索引号上面去,而w给定了每个索引号对应的叶子分数是什么,使得fk成为一种条件函数。

图6. q与w定义示意图

定义一棵树的复杂度,考虑复杂度包含了一棵树节点的个数T,以及每个树叶子节点上面输出分数w,如图7所示。

图7. 树的复杂度定义

3.3 目标函数的最终形式
将正则项代入到目标函数中,确定目标函数的最终形式为

图8. 目标函数最小值推导

现在剩下最后一个问题就是树的结构划分。通过不断地枚举不同树的结构,比较目标函数值来寻找一个最优结构的树。暴力枚举的时间开销太大,同decision tree一样采用贪心算法,每一次尝试对已有的叶子加入一个分割。这样,对于一个分割方案,我们可以获得的增益可以由如下所示。

图9. 划分后的Gain示意图 图10.叶子节点划分示意图.png

4.xgboost

xgboost是大规模并行boosted tree的工具,它是目前最快最好的开源boosted tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量kaggle选手选用它进行数据挖掘比赛,其中包括两个以上kaggle比赛的夺冠方案。在工业界规模方面,xgboost的分布式版本有广泛的可移植性,支持在YARN, MPI, Sungrid Engine等各个平台上面运行,并且保留了单机并行版本的各种优化,使得它可以很好地解决于工业界规模的问题。XGBoost 所应用的算法就是 gradient boosting decision tree,既可以用于分类也可以用于回归问题中。

应用案例:

先来用 Xgboost 做一个简单的二分类问题,以下面这个数据为例,来判断病人是否会在 5 年内患病,这个数据前 8 列是自变量,最后一列是预测值为 0 或 1。
数据描述:
https://archive.ics.uci.edu/ml/datasets/Pima+Indians+Diabetes
下载数据集,并保存为 “pima-indians-diabetes.csv“ 文件:
https://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data

  • 基础应用
#引入 xgboost 等包
from numpy import loadtxt
from xgboost import XGBClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
#分出变量和标签
dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",")
X = dataset[:,0:8]
Y = dataset[:,8]
#将数据划分为训练集(67%)和测试集(33%)
seed = 7
test_size = 0.33
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
#xgboost 有封装好的分类器和回归器,可以直接用 XGBClassifier 建立模型
model = XGBClassifier()
model.fit(X_train, y_train)
#xgboost 的结果是样本分类的概率值
y_pred = model.predict(X_test)
predictions = [round(value) for value in y_pred]
accuracy = accuracy_score(y_test, predictions)
print("Accuracy: %.2f%%" % (accuracy * 100.0))
  • 输出特征重要度
    gradient boosting可以给出训练好的模型的特征重要性,可以提供feature selection。仅需要需要引入:from xgboost import plot_importance和前面的代码相比,就是在 fit 后面加入两行画出特征的重要性
plot_importance(model)
pyplot.show()

5. 学习资源

Tianqi Chen 的讲座:
https://www.youtube.com/watch?v=Vly8xGnNiWs&feature=youtu.be
讲义:
https://speakerdeck.com/datasciencela/tianqi-chen-xgboost-overview-and-latest-news-la-meetup-talk
入门教程:
https://xgboost.readthedocs.io/en/latest/
安装教程:
http://xgboost.readthedocs.io/en/latest/build.html
应用示例:
https://github.com/dmlc/xgboost/tree/master/demo
最好的资源当然就是项目的 Github 主页:
https://github.com/dmlc/xgboost

6. 参考文献

【1】http://machinelearningmastery.com/develop-first-xgboost-model-python-scikit-learn/
【2】https://www.zhihu.com/question/37683881
【3】Friedman J H. Greedy Function Approximation: A Gradient Boosting Machine[J]. Annals of Statistics, 2001, 29(5): 1189-1232
【4】http://www.jianshu.com/p/7e0e2d66b3d4
【5】https://xgboost.readthedocs.io/en/latest/

相关文章

  • Boosted Tree

    作为一个非常有效的机器学习方法,Boosted Tree是数据挖掘和机器学习中最常用的算法之一。因为它效果好,对于...

  • 机器学习技法笔记:11 Gradient Boosted Dec

    Roadmap Adaptive Boosted Decision Tree Optimization View ...

  • xgboost slide(一)

    本文主要是对陈天奇的ppt《introduction to boosted tree》的理解。 概括:(1)监督学...

  • Xgboost

    XGBoost 与 Boosted Tree 1、Xgboost 使用集成的方式来处理分类和回归问题,利用上图的方...

  • xgboost原理

    阅读XGBoost 与 Boosted Tree 基学习器:CART 每个叶子节点上面有一个分数 不够厉害,所以找...

  • xgboost公式推导

    xgboost公式推导 基本构成 boosted tree作为有监督学习算法有几个重要部分:模型、参数、目标函数、...

  • 经验| 来,教你们假装成算法行家(入门)

    以下算法在大部分的情况下表现都非常好,算是工作中常用算法,具体如下: Boosted Decision Tree,...

  • xgboost tree

    前言 Boosted Tree是数据挖掘和机器学习中国最常用的算法那之一。 对于输入数据不敏感 -->是统计学家到...

  • 2.27 boost

    1. The general’s remark has significantly boosted the sol...

  • 【每日经济学人】2019-04-27

    2019-04-27 American banks’ earnings are boosted by retail...

网友评论

      本文标题:Boosted Tree

      本文链接:https://www.haomeiwen.com/subject/owdalxtx.html