决策树

作者: cornbig | 来源:发表于2020-12-17 17:30 被阅读0次

1. 信息增益,增益率

输入:训练集 D = {(x_1, y_1), ..., (x_m, y_m)} ;

            属性集 A = { {a_1, ..., a_d}}

过程:函数TreeGenerate(D,A)

信息熵 是度量样本集合纯度最常用的一种指标, 假定当前样本集合D中第k类样本所占的比例为

p_k(k = 1, 2,...,\vert y \vert)  ,则D的信息熵定义为 Ent(D) = -\sum_{k=1}^{\vert y \vert } p_k log_2p_k

Ent(D)的值越小,D的纯度越高

Gain(D,a) = Ent(D) - \sum_{v=1}^V \frac{\vert D^v \vert }{D} Ent(D^v)  (1)

从A中选择最优划分属性 a_* , a_* = arg min_{a\in A} Gain(D,a)

ID3 决策树学习算法以信息增益为准则来划分属性。 如果把编号加入到决策树中,根据(1)计算出编号属性的信息增益为0.998, 远大于其他候选划分属性 。可以理解, ”编号“将产生17个分支,每个分支结点仅包含一个样本,这些分支结点的纯度已达到最大,然而,这样的决策树显然不具有泛化能力,无法对新样本进行有效预测。

实际上信息增益准则对可取数目比较多的属性有所偏好,为减少这种偏好带来的不利影响,C4.5决策算法不直接用信息增益,而使用“增益率”(gain ratio)来选择最优划分属性,增益率定义为:

Gain ratio (D,a) = \frac{Gain(D,a)}{IV(a)} , 其中 IV(a) = -\sum_{v=1}^V \frac{\vert D^v \vert }{D} log_2  \frac{\vert D^v \vert }{D}

属性a 取值数目越多(V越大), 则IV(a)的值通常会越大, 增益率准则对可取值数目较少的属性有所偏好, 因此 C4.5 并不是直接选择增益率最大的候选划分属性,而是使用一种启发式:

先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。

2. 基尼指数

CART决策树 使用基尼指数来选择划分属性, 数据集D的纯度可用基尼值来度量:

Gini(D) = 

相关文章

  • 机器学习6-决策树

    一. 决策树概述 1.1 什么是决策树 决策树输入: 测试集决策树输出: 分类规则(决策树) 1.2 决策树算法概...

  • 决策树

    1、决策树 决策树学习通常包括3个步骤: 特征选择。 决策树生成。 决策树剪枝。 决策树的学习目标是:根据给定的训...

  • 决策树

    决策树 决策树模型与学习 特征选择 决策树的生成 决策树的剪枝 CART 算法 决策树模型呈树形结构,在分类问题中...

  • 决策树算法总结

    目录 一、决策树算法思想 二、决策树学习本质 三、总结 一、决策树(decision tree)算法思想: 决策树...

  • 机器学习 - 决策树算法[一]

    1 决策树模型与学习 1.1 决策树模型 决策树定义: 分类决策树模型是一种描述对实例进行分类的树形结构。决策树由...

  • 机器学习系列(三十六)——回归决策树与决策树总结

    本篇主要内容:回归决策树原理、回归树学习曲线、决策树总结 回归决策树原理 回归决策树树是用于回归的决策树模型,回归...

  • [机器学习]决策树

    决策树 @(技术博客)[机器学习, 决策树, python] 学习决策树首先要搞清楚决策树是什么(what),在弄...

  • 经典机器学习系列之【决策树详解】

      这节我们来讲说一下决策树。介绍一下决策树的基础知识、决策树的基本算法、决策树中的问题以及决策树的理解和解释。 ...

  • 第5章 决策树

    内容 一、决策树内容简介 二、决策树的模型与学习 三、特征选择 四、决策树生成 五、决策树剪枝 六、CART算法 ...

  • 决策树与随机森林

    PART I 决策树 (Decision Tree) 决策树基本知识 决策树何时停止生长:(I) all leaf...

网友评论

      本文标题:决策树

      本文链接:https://www.haomeiwen.com/subject/qjbzgktx.html