CART树

作者: NatsuYori | 来源:发表于2020-09-21 23:04 被阅读0次

CART(classification and regression tree)算法是分类回归树算法,它是决策树的一种实现。决策树一般有ID3,ID4.5和CART这三种算法。CART树是一颗二分树,它通过二分递归分割,在每个节点将样本空间进行分割,它在每步决策时只有是、否两种选择。
决策树的算法主要包括树生成和剪枝两步骤。本文主要讲述的是树的生成步骤。
CART树生成的主要思想就是分裂。每个准备分裂的节点,都会从数据集中选择一个最优特征的最优值作为分裂的条件,将数据分成两部分。接下来,我们界定什么是“最优”。在分类问题上,使用Gini系数来确定,在回归问题上,使用平方误差来界定。使得模型的gini系数越小、平方误差越小的特征值,就是“优” 的特征值。

  1. 树模型的输入都是1*n的vector,需要把所有feature都拍平了放进去。
  2. cart树每次节点分裂的时候,遍历每个feature的每个value,将dataset分为在该feature上小于选定value的部分和大于选定value的部分,根据损失函数计算两部分的loss,分类问题计算gini系数,回归问题计算平方误差。遍历结束挑出使得损失最低的feature的value,然后将数据分成两部分,左子树输入的是选出feature的value小于best value的,右边是大于best value的部分
  3. 这样递归,会碰到边界条件,例如树的深度达到了,或者是数据量缩小到一定程度。然后根据叶子节点得到的数据,对样本y值求平均得到预测值。
    模型在predict的时候,根据节点的feature和value,可以一步步走到叶子节点,得到叶子节点存放的预测值。


    cart tree

参考:
https://machinelearninggao.readthedocs.io/zh/stable/9.树回归/
https://zhuanlan.zhihu.com/p/128472955

相关文章

  • 随机森林和决策树(DecisionTree & RandomFo

    决策树 - 基于CART的决策树 CART分类回归树(classification and regression ...

  • 数据分析03 - 决策树

    标签(空格分隔): 数据分析 CART 创建决策树做分类 分类树如下: CART 回归树做预测

  • XGBoost详解

    Prerequisite: CART回归树 CART回归树是假设树为二叉树,通过不断将特征进行分裂。比如当前树结点...

  • 统计学习方法5.6 - 7.2笔记

    5.6 决策树 -- CART算法 CART是二叉结构树。多叉可以转换成二叉,表示是和非 在CART算法中分类树是...

  • CART树

    CART(classification and regression tree)算法是分类回归树算法,它是决策树的...

  • CART 分类与回归树

    本文结构: CART算法有两步 回归树的生成 分类树的生成 剪枝 CART - Classification an...

  • 01-23

    今天看的是分类树,CART算法的决策树可以作为分类树或者回归树,通过寻找纯净的划分,引出纯度。而CART算法主干和...

  • 2019-04-26

    决策树 离散型数据ID3 连续型数据C4.5 分类与回归树算法(CART) CART算法就是将决策树中用于判断特征...

  • Cart 回归树

    代码来自《机器学习实战一书》;代码已经由github的wzy6642整理成python3版本:https://gi...

  • 决策树算法之随机森林

    在 CART 分类回归树的基础之上,我们可以很容易的掌握随机森林算法,它们之间的区别在于,CART 决策树较容易过...

网友评论

      本文标题:CART树

      本文链接:https://www.haomeiwen.com/subject/hfxiyktx.html