机器学习算法——决策树5(CART)

作者: 皮皮大 | 来源:发表于2019-08-24 10:07 被阅读6次

    三种算法比较

    ID3:采用信息增益作为选择特征的标准,越大越好
    C4.5:采用信息增益率作为选择特征的标准,越大越好
    CART

    • 回归:平方误差函数,越小越好
    • 分类:基尼系数,越小越好

    CART算法

    CART算法由特征选择、树的生成及剪枝组成,可以用于回归也可以用于分类。CART假设决策树是二叉树,内部节点特征的取值为"是"和"否",左边取值为"是"的分支,右边为"否"的分支,进行递归地二分每个特征,算法分为两步:

    • 决策树生成:基于训练数据集生成决策树,生成的决策树尽量大;
    • 决策树剪枝:用验证数据集对已生成的树进行剪枝,并且选择最优树,用最小化损失函数作为剪枝的标准

    决策树的生成就是递归地创建二叉树的过程。最小化准则:

    • 回归:平方误差最小化
    • 分类:基尼系数最小化

    回归树

    假设输入和输出变量分别是XY,并且Y是连续变量,在数据集D=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}上,如果将输入空间划分为M个单元R_1,R_2,...,R_M,每个单元对应的输出值为c_m,回归树模型为:f(x)=\sum_{m=1}^{M}c_mI(x\in{R_m})平方误差为\sum_{x_i\in R_m}(y_i-f(x_i))^2用来表示回归树对于训练数据的预测误差

    分类树

    分类数用基尼系数选择最优特征,同时决定该特征的最优二值分切分点。分类问题中,假设有K个类,样本点属于第k类的概率为p_k,概率分布的基尼质数定义为:
    \begin{align} Gini(p) & =\sum_{k=1}^{K}p_k(1-p_k) \\ & =\sum_{k=1}^{K}p_k - \sum_{k=1}^{K}p_k^2 \\ & = 1- \sum_{k=1}^{K}p_k^2 \end{align}
    对于二分类问题,若属于第一个类的概率为p,概率分布的基尼系数为:Gini(D)=p(1-p)+(1-p)(1-(1-p))=2p(1-p)对给定的样本集合D,基尼系数为Gini(D)=1-\sum_{k=1}^{K}(\frac {|C_k|} {|D|})^2其中K是类的个数,C_kD中属于第k类的样本子集。

    基尼系数表示样本集合的不确定性,基尼系数越大,样本集合的不确定性就越大

    CART算法

    输入:训练数据集D,停止计算的条件
    输出:CART决策树

    具体构建决策树的步骤为:

    • 设节点的数据集为D,计算现有特征对该数据集的基尼系数
    • 在所有的特征A以及它们可能的切分点中,选择基尼系数最小的特征及对应的切分点作为最佳选择。
    • 从现有节点中生成两个子节点,将训练数据集分配到两个子节点中去
    • 递归地调用上面两个步骤,直到满足停止条件
    • 生成CART

    停止条件:节点中样本数小于阈值,或者样本集的基尼系数小于阈值,或者没有更多特征

    相关文章

      网友评论

        本文标题:机器学习算法——决策树5(CART)

        本文链接:https://www.haomeiwen.com/subject/uoyfectx.html