十分钟了解决策树

作者: littlehei | 来源:发表于2017-03-05 19:32 被阅读750次
鸢尾花数据集上描绘决策树的决策面图

决策树是一种非参数的监督学习方法,可用于分类和回归的应用中。旨在通过数据学习出简单的决策规则来创建模型,进而预测和判定目标变量的结果。

** 决策树的工作原理 **

顾名思义,决策树以「树」这样的数据结构来进行分类或预测决策,在分类应用中,树中的每个节点构成类标签,叶子节点就是最终的分类类标号;树中的分支由决策规则组成。

一旦决策树构造好了,对目标变量进行分类时,从树的根节点开始,依次经过不同的规则分支,达到叶子节点,该叶子节点的类标号即为该目标变量的分类结果。

** 如何构造决策树 **

构造决策树的步骤为:
1、开始的时候,所有记录当作一个节点;
2、选择一个属性测试条件用于分割节点,往往需要遍历每一种分割方式,以找到最好的分割点;
3、将节点分割,作为其子节点,如分割成N1和N2;
4、对子节点,如N1和N2,继续执行第2、3步,直到节点满足停止分割的条件

从步骤中,我们可以看出,整个算法必须解决「如何停止分割」和「如何选择分割」两个关键问题。

为此,需要引入不纯度来度量每个节点,即度量节点中的记录够不够纯净,是否都是同一类别的记录。不纯度的计算方式包括:
1、熵, Entropy = - sum( p(i) * log(p(i)) )
2、Gini不纯度,Gini = 1 - sum( p(i) * p(i) )
3、错误率,Error = 1 - max(p(i))
注:p(i)为节点中第i种类别记录的占比。

一种停止分割的方法是,当节点的不纯度满足一定条件时,则不再对该节点继续分割。而属性测试条件的选择也可用不纯度来衡量,当父节点和子节点不纯度差别越大时,说明分割得越好。

若想了解具体的实现,可参考决策树的scikit-learn源码

** 决策树的优缺点 **

优点
  • 简单易懂,可解释性强,且构造的树能够可视化。
  • 只需要较少的数据准备,而其他一些技术常常需要做数据标准化、哑变量的创建等等数据准备工作。
  • 使用成本低,一旦创建了树,对目标变量的决策所需要消耗的时间很少。
  • 能够同时处理数值和分类变量,其他的一些技术往往只能处理特定数据类型的变量。
  • 能处理多输出问题。
  • 可使用统计检验来验证模型,从而可保证模型的可靠性。
缺点
  • 容易出现过拟合,特别是在构造了过于复杂的树的情况下。
  • 不够稳定,哪怕是训练数据出现了一点小的变化,最后生成的树也可能千差万别。
  • 训练寻找一个最优的决策树是一个NP完全问题,因此决策树的构造算法也多使用贪心算法,得到的往往是一个局部最优结果。
  • 对于异或、多路复用等问题,决策树表现一般,因为决策树很难去表达它们。
剪枝

当构造的决策树节点过多,显得过于复杂、过于「茂盛」时,就容易出现过拟合的现象,此时需要对树进行剪枝。剪枝方法包括前置剪枝和后置剪枝,也叫先剪枝和后剪枝。

前置剪枝,即在构造树的时候就进行剪枝,这样在产生完全拟合训练数据之前就停止决策树的生长了。为做到这一点,通常采用更具有限制性的分割结束条件,如控制节点数,设置较高的分割阈值等。

后置剪枝,初始决策树按照最大规模生长,完全拟合训练数据,然后在进行剪枝步骤,如用新的叶子节点替换子树,或用子树中最常见的分支代替子树。

** 示例 **

下面示例使用决策树对鸢尾花进行分类计算,scikit-learn自带的鸢尾花数据集中有4个属性,示例中将每两两属性为一组,使用决策树从训练数据中学习得到对应的分类阈值规则,然后组成分类的决策边界。

示例绘制了决策树分类结果的决策面,该示例来源于scikit-learn,详细代码如下:

# -*- coding: utf-8 -*-

import numpy as np
import matplotlib.pyplot as plt

from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier

# 参数
n_classes = 3
plot_colors = "bry"
plot_step = 0.02

# 鸢尾花数据加载
iris = load_iris()

# 鸢尾花数据有4个属性,取两两属性为一组,遍历
for pairidx, pair in enumerate([[0, 1], [0, 2], [0, 3],
                                [1, 2], [1, 3], [2, 3]]):
    # 每次取两个属性的数据
    X = iris.data[:, pair]
    y = iris.target

    # 训练分类器
    clf = DecisionTreeClassifier().fit(X, y)

    # 绘制决策边界,共2行3列6个子图,每组属性画一个图
    plt.subplot(2, 3, pairidx + 1)

    # 生成坐标矩阵数据
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, plot_step),
                         np.arange(y_min, y_max, plot_step))

    # 使用分类器计算每个坐标点的分类,并绘制分类结果矩阵的等高线
    Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)
    cs = plt.contourf(xx, yy, Z, cmap=plt.cm.Paired)

    # 使用属性特征名作为横纵坐标名
    plt.xlabel(iris.feature_names[pair[0]])
    plt.ylabel(iris.feature_names[pair[1]])
    plt.axis("tight")

    # 绘制训练数据点,并用不同颜色区分
    for i, color in zip(range(n_classes), plot_colors):
        idx = np.where(y == i)
        plt.scatter(X[idx, 0], X[idx, 1], c=color, label=iris.target_names[i],
                    cmap=plt.cm.Paired)

    plt.axis("tight")

plt.suptitle("Decision surface of a decision tree using paired features")
plt.legend()
plt.show()

更多有关决策树的内容见这里

(全文完)

相关文章

  • 决策树算法

    决策树 决策树也是经常使用的数据挖掘算法,其不用了解机器学习的知识,就能搞明白决策树是如何工作的。 决策树算法能够...

  • 十分钟了解决策树

    决策树是一种非参数的监督学习方法,可用于分类和回归的应用中。旨在通过数据学习出简单的决策规则来创建模型,进而预测和...

  • 决策树

    一、决策树简介 在介绍决策树之前,先了解一下决策树的处理流程。如下图所示,有三个属性值,分别为Outlook、Hu...

  • 决策树-特征选择及python实现

    一、概述 众所周知,决策树的引入是为了解决分类问题。提起决策树,很难不想到数据结构中的树。其实决策树就是一个树结构...

  • 深入理解逻辑回归算法(Logistic Regression)

    在继续学习 GBDT(Gradient Boosting Dicision Tree) 决策树前,我们需要先来了解...

  • 机器学习-决策树原理 Python

    由于最近项目的需要,学习了分类算法--决策树,从逐步了解决策树,然后到手动在Excel里面模拟计算相关算法,最后到...

  • 机器学习6-决策树

    一. 决策树概述 1.1 什么是决策树 决策树输入: 测试集决策树输出: 分类规则(决策树) 1.2 决策树算法概...

  • 2017.11.06

    今天学习了决策树这部分的知识, 1.了解了基于不同准则的决策树算法 基于信息增益 ID3 算法;基于增益率 C4....

  • 【每个人的商学院.管理基础】第四章:决策工具

    虽说选择大于努力,但事实上我们很难理性决策,因此了解一些决策工具便尤为重要。 1.决策树:如何用决策树选择相亲对象...

  • 相亲过程其实就是决策树!30页PPT帮你了解机器学习

    如果你想了解机器学习,决策树是最佳起点之一。 决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支...

网友评论

    本文标题:十分钟了解决策树

    本文链接:https://www.haomeiwen.com/subject/hsxdgttx.html