美文网首页
决策树与随机森林(一)

决策树与随机森林(一)

作者: 士多啤梨苹果橙_cc15 | 来源:发表于2017-08-04 15:12 被阅读0次

转自小象学院

我的学习笔记

1. 复习信息熵:熵,联合熵、条件熵、互信息

2. 决策树学习算法:信息增益 | ID3 | C4.5 |CART

3. Bagging与随机森林

决策树的总结

1.  决策树是一种树型结构,其中每个内部节点表示在一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

2. 决策树学习是以实例为基础的归纳学习

3. 决策树学习采用的是自顶向下的递归方法,其基本思想是以信息熵为度量构造一颗熵值下降最快的树,到叶子节点处熵值为零,此处每个叶节点中的实例都属于同一类。

决策树学习算法的最大优点是,它可以自学习。在学习的过程中,不需要使用者了解过多的背景知识,只需要对训练实例进行较好的标注,就能够进行学习。

属于有监督学习

从一类无序、无规则的概念中推理出决策树表示的分类规则。

关于信息增益


概念:当熵和条件熵额概率由数据估计(特别是极大似然估计)得到时,相应的熵称为经验熵和经验条件熵

信息增益表示得知特征A的信息而使得类X的信息的不确定性减少的程度

信息增益的计算方法

三种决策树算法比较:

1. ID3: 使用信息增益/互信息g(D,A)进行特征选择

取值多的属性,更容易使数据更纯,其信息增益更大

训练得到的是一颗庞大且深度浅的树:不合理

2. C4.5:信息增益率 gr(D,A) = g(D,A) / H(A)

3. CART: 基尼指数

一个属性的信息增益(率)/gini指数越大,表明属性对样本熵减少的能力越强,这个属性使得数据由不确定性变成确定性的能力越强。

决策树的评价

假定样本总类别为K个

对于某叶节点,假定样本数目为n,其中第k类为nk

    若nj = n,而n1...ni=0,则称纯结点

    若n1=n2...=nk = n/K 则称该样本为均结点

纯结点的熵Hp=0,最小,均结点的熵Hu=lnK,最大

对所有的叶节点的熵求和,该值越小说明对样本的分类越精确,各个叶节点包含的样本数目不同,可使用样本数加权求熵和

评价函数,又称损失函数

决策树的过拟合

决策树对训练已知有很好的分类能力,但是对未知的测试数据却不一定,泛化能力弱,即可能发生过拟合现象。

解决方案:剪枝 | 随机森林

剪枝:

剪枝系数(跟学习率不同,不要误会)

相关文章

  • 随机森林

    1、什么是随机森林? 随机森林就是用随机的方式建立一个森林,在森林里有很多决策树组成,并且每一棵决策树之间是没有关...

  • 随机森林-Python

    这里随机森林分类器的预测可视化与决策树差不多,因为随机森林就是决策树投票得到的结果。代码: 关键代码:plt.sc...

  • 随机森林原理

    1、什么是随机森林?随机森林就是用随机的方式建立一个森林,在森林里有很多决策树组成,并且每一棵决策树之间是没有关联...

  • 随机森林分类器

    随机森林,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森...

  • 1 . spark ml 随机森林练习代码讲解

    一,算法简介 随机森林是决策树的集成算法。随机森林包含多个决策树来降低过拟合的风险。随机森林同样具有易解释性、可处...

  • sklearn-随机森林分类器

    随机森林(1.11.2.1),随机森林的参数属性方法和决策树差不多。(RandomForestClassifier...

  • 决策树与随机森林及其在SparkMllib中的使用

    一.概念 决策树和随机森林:决策树和随机森林都是非线性有监督的分类模型。 决策树是一种树形结构,树内部每个节点表示...

  • 基于R语言的随机森林算法

    随机森林基本原理 随机森林,从字面理解就是随机生成的树构成的森林,树与树之间是独立的。每一颗树就是决策树,所以说随...

  • 用决策树和随机森林解决泰坦尼克号沉没问题

    决策树和随机森林既可以解决分类问题,也可以解决预测问题。 随机森林属于集成算法,森林从字面理解就是由多棵决策树构成...

  • 决策树与随机森林(三)--提升

    转自July--4月机器学习算法班 由决策树和随机森林引发思路 随机森林的决策树分布采样建立,相对独立。 思考: ...

网友评论

      本文标题:决策树与随机森林(一)

      本文链接:https://www.haomeiwen.com/subject/fpivlxtx.html