美文网首页
xgboost学习笔记 + GBDT

xgboost学习笔记 + GBDT

作者: 谁是我的小超人 | 来源:发表于2017-11-29 22:09 被阅读0次

    从泰勒公式说起

    泰勒公式的作用.png
    • 泰勒公式损失函数存在二阶导数的时候,可以提供参数下降的方向


      梯度下降法的泰勒展开理解.png
    • 为什么选择负梯度方向的原因通过泰勒的方式解释一下


      牛顿下降法原理.png
    • 使用牛顿下降法来逼近误差的方法,需要二阶可导


      引入函数空间这个概念.png
    • 引入函数空间,通过类比的方法来构造新的子树。就是一个更新迭代的一堆树。通过引入一颗新的树来减小误差。


      boosting.png
    • boosting的思想很牛逼,但其实就是一种参数更新的思路,但是这个参数是一个子树。通过生成一颗子树叠加到之前的子树上来减小损失函数。
    • 基分类器是回归树有很多优点:
      1.解释性强
      2.处理混合特征
      3.伸缩不变性(这个不怎么理解)
      4.对异常点具有非常好的鲁棒性
      5.。。。。
      总之,就是解释能力比较好


      BOOST Decision Tree.png
    • 首先类似于梯度下降,也有一个学习率
    • 同时求解方法是贪心的


      利用梯度产生子树.png
      xgboost.png
    • 算法上最大的特点
      1.通过二阶导来选择更新方向
      2.加入正则项来对构建的树,加入贝叶斯先验。L2正则意味着:先验高斯分布,
      L1正则:瑞斯分布


      需要最小化的目标函数.png
      image.png
    • 正则化的先验解释


      误差函数.png
      一些列的变换.png
      变换2.png
      节点数值.png
    • 得出了树的子叶节点的合理的权值,同时,也得出了正确的损失函数。关于第t颗树的。


      建树.png
    • 传统的方法都是先建树,在加入正则剪枝。


      建树_xgboost.png
    • 这种建树的方式考虑了正则化。

    相关文章

      网友评论

          本文标题:xgboost学习笔记 + GBDT

          本文链接:https://www.haomeiwen.com/subject/etupbxtx.html