美文网首页
周志华《机器学习》之五:决策树

周志华《机器学习》之五:决策树

作者: 多多乐 | 来源:发表于2017-05-12 14:38 被阅读0次

决策树大概是最符合人直觉思考的机器学习方法了。通过对样本属性一步步的判断,最终给出一个结论。我想主要关注的几个问题有:如何选择划分节点,如何避免过拟合,如何处理连续及缺失值。

划分选择

选择分类节点时,利用了信息熵的知识。在分类问题中信息熵反映在样本集中不同类样本比例上。我们希望根据某一节点分组完后,各组内样本类别尽可能统一,即纯度提高。很多指标可以评价纯度提升程度,如信息增益(ID3)增益率(C4.5)基尼系数(CART)

信息增益可以看做是划分前的熵减去划分后的熵,以熵下降的绝对程度作为划分标准;信息增益对可取类别比较多的属性有偏好,于是又有了增益率,在信息增益的基础上除以属性包含的类别数目,以下降的相对程度作为划分标准。有点类似ALFF和fALFF,由绝对到相对的转化通常会提升性能。

剪枝处理

剪枝是决策树应对过拟合的主要方法,分为预剪枝后剪枝。预剪枝在每个划分节点上都要考察一下泛化能力,看分类能否带来验证集精度的提升。预剪枝可以显著避免过拟合,降低开销;但有些分支虽暂时不能提升泛化能力,但在此基础上的后续划分却有可能提高,因此也要承担欠拟合的风险。

后剪枝则是先在训练集上生成完整的决策树,之后再一个节点一个节点的倒推,看精度变化。后剪枝保留更多的分支,不用担心欠拟合,泛化能力往往优于预剪枝;但由于要先生成完整决策树,并且逐一考察节点,开销会大得多。

连续与缺失值

处理连续值时,要先设定后多个切值作为判定条件,然后考察每个切值的信息增益,选择最大的那个作为这个连续值属性的判断条件。

样本可能有些属性值缺失,但改分还得分,不用剔掉。在计算有缺失值的属性的信息增益时,可以只观察那些此属性上有值的样本,再乘一个无缺失样本所占比例即可。

多变量决策树

决策树的节点往往是单属性的,得到的决策边界都是横平竖直的。而多变量的决策树在分类节点上不是找一个最优划分属性,而可以是多个属性的线性组合,决策边界可以是斜线。多变量决策树可以简化模型,提高精度。

相关文章

  • 周志华《机器学习》之五:决策树

    决策树大概是最符合人直觉思考的机器学习方法了。通过对样本属性一步步的判断,最终给出一个结论。我想主要关注的几个问题...

  • 3.1.1.2 决策树

    决策树 原理 《机器学习》周志华 4.1 基本流程 决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强...

  • 机器学习-周志华 决策树

    决策树建立:当前节点选哪个特征,选择特征的哪个值作为分割点。 决策树建立的目标:结点的“纯度”越来越高。 决策树调...

  • 机器学习-决策树

    积跬步以致千里,积怠惰以致深渊 注:本篇文章在整理时主要参考了 周志华 的《机器学习》。 主要内容 决策树是机器学...

  • 机器学习(4)

    本章节是对我学习完机器学习(周志华)第四章 所做出来的总结 第四章 决策树 4.1 基本流程 一般的,一棵决策树包...

  • 周志华《机器学习》笔记-决策树

    这是我看西瓜书时做的笔记,由于公式很多并且简书不支持LaTeX公式,所以只能传PDF截图了,可以在这里获得完整PDF。

  • 2.machine_learning_concepts

    1 机器学习概述-from周志华《机器学习》 1.1 机器学习基本概念 机器学习是目前信息技术中最激动人心的方向之...

  • 《机器学习_周志华》PDF高清完整版-免费下载

    《机器学习_周志华》PDF高清完整版-免费下载 《机器学习_周志华》PDF高清完整版-免费下载 下载地址:网盘下载...

  • 决策树学习笔记

    本文是学习周志华老师的《机器学习》以及其他相关博客之后进行概括和整理,以便自己将来能够快速回忆其决策树的相关内容。...

  • 机器学习之决策树(Decision Tree)及其Python

    机器学习之决策树(Decision Tree)及其Python代码实现

网友评论

      本文标题:周志华《机器学习》之五:决策树

      本文链接:https://www.haomeiwen.com/subject/saqgtxtx.html