美文网首页
CART算法框架

CART算法框架

作者: ChongmingLiu | 来源:发表于2018-02-26 15:43 被阅读74次

最小二乘回归树生成算法

输入: 训练数据集D
输出: 回归树f(x)
在训练数据集所在的输入空间中,递归的将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树:
(1) 选择最优切分变量j和切分点s,求解 min[min∑(yi-c1)^2+min∑(yi-c2)^2],
遍历变量j,对固定的切分变量j扫描切分点s,选择使上式最小的j,s;
(2) 用选定的对(j,s)划分区域并决定相应的输出值:
R1(j,s)={x|x(j)≤s}, R2(j,s)={x|x(j)>s}, cm=∑yi/Nm, x∈Rm, m=1,2;
(3) 继续对两个子区域调用步骤(1)(2),直至满足停止条件;
(4) 将输入空间划分为M个区域R1, R2, ..., Rm,生成决策树: f(x)=∑cm * I(x ∈ Rm);

分类树生成算法

输入: 训练数据集D,停止计算的条件;
输出: CART分类树
根据训练数据集,从根结点开始递归的对每个结点进行以下操作,构建二叉决策树:
(1) 设结点的训练数据集为D,计算现有特征对该数据集的基尼指数,此时,对每一个特征A,对其可能取的每个值a,根据样本点对A=a的测试为“是”或“否”将D分割为D1和D2两部分,计算A=a时的基尼指数Gini(D, A);
(2) 在所有可能的特征A以及它们所有可能的切分点a中,选择基尼指数最小的特征及其对应的切分点作为最优特征与最优切分点。依最优特征与最优切分点,从现结点生成两个子节点,将训练数据集依特征分配到两个子结点中;
(3) 对两个子结点递归的调用(1)(2),直至满足停止条件;
(4) 生成CART决策树

算法停止计算的条件是:
(1) 结点中的样本个数小于预定阈值;
(2) 样本集的基尼指数小于预定阈值(认为样本基本属于同一类);
(3) 没有更多特征;

分类问题中,假设有K个类,样本点属于第k类的概率为pk,则概率分布的基尼指数为:

Gini(p)=∑pk(1-pk)=1-∑pk2

对于给定样本集合D,其基尼指数为:

Gini(D)=1-∑(|Ck| / |D|)2

在特征A的情况下,集合D被划分为D1, D2,则集合D在A条件下的基尼指数为:

Gini(D, A)=|D1|/|D|Gini(D1)+|D2|/|D|Gini(D2)

相关文章

  • CART算法框架

    最小二乘回归树生成算法 分类树生成算法 分类问题中,假设有K个类,样本点属于第k类的概率为pk,则概率分布的基尼指...

  • 数挖——基本分类

    构造决策树有多种算法:1、Hunt算法 (决策树归纳算法框架)2、CART3、ID3, C4.5 (重点)4、SL...

  • 「数据分类」14决策树分类之CART算法

    1.CART算法与ID3算法对比 (1)CART算法解决了ID3算法的不足,既能用于分类问题,又能用于回归问题。 ...

  • 统计学习方法5.6 - 7.2笔记

    5.6 决策树 -- CART算法 CART是二叉结构树。多叉可以转换成二叉,表示是和非 在CART算法中分类树是...

  • CART算法

    本文来自我的个人博客 https://www.zhangshenghai.com/posts/31705/ 分类与...

  • Cart Algorithm and R Programming

    首先,要明白Cart生成算法。Cart生成算法的核心是以基尼系数(Gini Index)最小化为准则生成分类树。理...

  • CART 分类与回归树

    本文结构: CART算法有两步 回归树的生成 分类树的生成 剪枝 CART - Classification an...

  • CART树

    CART(classification and regression tree)算法是分类回归树算法,它是决策树的...

  • 2019-04-26

    决策树 离散型数据ID3 连续型数据C4.5 分类与回归树算法(CART) CART算法就是将决策树中用于判断特征...

  • 01-23

    今天看的是分类树,CART算法的决策树可以作为分类树或者回归树,通过寻找纯净的划分,引出纯度。而CART算法主干和...

网友评论

      本文标题:CART算法框架

      本文链接:https://www.haomeiwen.com/subject/smerxftx.html