GBDT 是一个加性回归模型,通过 boosting 迭代的构造一组弱学习器,
相对LR的优势如不需要做特征的归一化,自动进行特征选择,模型可解释性较好,可以适应多种损失函数如 SquareLoss,LogLoss 等等。
但作为非线性模型,其相对线性模型的缺点也是显然的:boosting 是个串行的过程,不能并行化,计算复杂度较高,
同时其不太适合高维稀疏特征,通常采用稠密的数值特征如点击率预估中的 COEC。—引自xgboost导读与实战。
GBDT 是一个加性回归模型,通过 boosting 迭代的构造一组弱学习器,
相对LR的优势如不需要做特征的归一化,自动进行特征选择,模型可解释性较好,可以适应多种损失函数如 SquareLoss,LogLoss 等等。
但作为非线性模型,其相对线性模型的缺点也是显然的:boosting 是个串行的过程,不能并行化,计算复杂度较高,
同时其不太适合高维稀疏特征,通常采用稠密的数值特征如点击率预估中的 COEC。—引自xgboost导读与实战。
本文标题:gbdt
本文链接:https://www.haomeiwen.com/subject/lcooehtx.html
网友评论