美文网首页
2019-04-07-GDBT算法梳理

2019-04-07-GDBT算法梳理

作者: Diamond1995 | 来源:发表于2019-04-07 22:02 被阅读0次

1.前向分布算法

在集成学习中,Adaboost和GDBT都是采用加法模型和前向分布算法,唯一不同的是损失函数的选取。

首先我们需要知道什么是加法模型:

2.加法模型如何求解参数呢?

由于加法模型有n个基函数,对于m个系数代求,如果直接求解是很困难求解出来的。我们可以从前往后,每次学习一个基函数以及求解一个系数。

利用泰勒一阶展开式展开我们的损失函数:

2.负梯度拟合

3.损失函数

对于分类问题:拟合损失函数负梯度,结果就和Adaboost一样。

对于回归问题:损失函数为均方误差。基函数就是拟合负梯度。

5.二分类,多分类

6.正则化

7.优缺点

8.sklearn参数

GBDT最终要的2个待调节参数为

弱学习器的待调节参数:和CART决策树参数一样

相关文章

网友评论

      本文标题:2019-04-07-GDBT算法梳理

      本文链接:https://www.haomeiwen.com/subject/tkmeiqtx.html