1、XGBoost 通过构造加法模型逐步累加预测结果,以达到在给定特征向量x的情况下,得出最佳的预测值y
问题:在每一步如何得到f(x)?
思路:最小化目标函数

2、构造并推导目标函数,其中,
L:损失函数,用来衡量模型拟合训练数据的好坏程度
Omega:正则项,用来衡量学习到的模型的复杂度

3、最小化目标函数

4、具体计算步骤

5、以单样本为例模拟10颗数训练与预测过程

1、XGBoost 通过构造加法模型逐步累加预测结果,以达到在给定特征向量x的情况下,得出最佳的预测值y
问题:在每一步如何得到f(x)?
思路:最小化目标函数
2、构造并推导目标函数,其中,
L:损失函数,用来衡量模型拟合训练数据的好坏程度
Omega:正则项,用来衡量学习到的模型的复杂度
3、最小化目标函数
4、具体计算步骤
5、以单样本为例模拟10颗数训练与预测过程
本文标题:XGBoost 理解
本文链接:https://www.haomeiwen.com/subject/oskalftx.html
网友评论