美文网首页
机器学习入门之 — 提升树

机器学习入门之 — 提升树

作者: DayDayUpppppp | 来源:发表于2018-04-05 11:15 被阅读0次
    对于回归提升树

    提升树是以分类树或回归树为基分类器。它的idea在于,第一个回归树预测的效果可能一般,但是第二个回归树把第一个预测错的残差作为输入。也就是说,如果一个点的值被预测错误,那么在下一个回归树里面的模型的权值会变大。通过这个方式,来提高模型的效果。

    关于提升树的一个例子

    训练提升树的步骤:

    • step1 构建第一个回归树T1(x)
      • step 1.1 如何构建回归树T1(x)
        a. 从数据集里面找到一个切分点s,将数据集分成两个部分。
        b. 对于每个部分,找到一个值c,使得内部的y到所有的平方损失函数最小。
        (遍历所有可能的切分点s,找到最好的效果。那么问题又来了,如何判断一个点的切分的效果好与坏?)
    • 在上一颗回归树回归的基础上,把残差作为下一棵回归树的任务,继续构造回归树。
      (不断循环这个过程)

    计算c的公式是:


    判断一个点s,切分效果的好与坏的评价标准的时候:


    下面,我们带入这个具体的例子里面进行分析。

    假设,现在的切分点是s=1.5 , 那么数据集就会被分成两个部分,一个是R1={1} , R2={2, 3 , ..., 10} 。

    那么,对于切分的两个部分里面,求c1和c2。根据上面的公式,c1=5.56 , c2=7.50 。

    那么,在我们这个例子里面,m(s)的值是:


    如果,遍历所有可能的切分点,对于每一个切分点都会有一个值。


    也就说,当在s=6.5的时候,切分的效果是最好的。

    也就是说,我们现在得到了第一颗回归树,T1(x)。对于小于6.5的数据,我们把他预测成6.24,对于大于等于6.5的数据,我们把它预测成8.91。

    然后,就到了最重要的一步,将残差数据放入下一个回归树进行训练。

    下面去训练下一个学习器:

    判断的终止条件是:

    对于求出的第一个回归树:


    对于求出的第二个回归树:


    依次类推:


    最后:



    参考 : 《统计学习方法》

    相关文章

      网友评论

          本文标题:机器学习入门之 — 提升树

          本文链接:https://www.haomeiwen.com/subject/klblhftx.html