随机森林再复习

作者: 云时之间 | 来源:发表于2017-07-16 02:25 被阅读244次

    这里只是准备简单谈谈基础的内容,主要参考一下别人的文章,对于随机森林与GBDT,有两个地方比较重要,首先是information gain,其次是决策树。这里特别推荐Andrew Moore大牛的Decision Trees Tutorial,与Information Gain Tutorial。Moore的Data Mining Tutorial系列非常赞,看懂了上面说的两个内容之后的文章才能继续读下去。

    决策树实际上是将空间用超平面进行划分的一种方法,每次分割的时候,都将当前的空间一分为二,比如说下面的决策树:

    随机森林再复习

    就是将空间划分成下面的样子:

    随机森林再复习

    这样使得每一个叶子节点都是在空间中的一个不相交的区域,在进行决策的时候,会根据输入样本每一维feature的值,一步一步往下,最后使得样本落入N个区域中的一个(假设有N个叶子节点)

    随机森林(Random Forest):

    随机森林是一个最近比较火的算法,它有很多的优点:

    在数据集上表现良好

    在当前的很多数据集上,相对其他算法有着很大的优势

    它能够处理很高维度(feature很多)的数据,并且不用做特征选择

    在训练完后,它能够给出哪些feature比较重要

    在创建随机森林的时候,对generlization error使用的是无偏估计

    训练速度快

    在训练过程中,能够检测到feature间的互相影响

    容易做成并行化方法

    实现比较简单

    随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输 入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本 为那一类。

    在建立每一棵决策树的过程中,有两点需要注意 - 采样与完全分裂。首先是两个随机采样的过程,random forest对输入的数据要进行行、列的采样。对于行采样,采用有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。假设输入样本为N个,那 么采样的样本也为N个。这样使得在训练的时候,每一棵树的输入样本都不是全部的样本,使得相对不容易出现over-fitting。然后进行列采样,从M 个feature中,选择m个(m << M)。之后就是对采样之后的数据使用完全分裂的方式建立出决策树,这样决策树的某一个叶子节点要么是无法继续分裂的,要么里面的所有样本的都是指向的同一 个分类。一般很多的决策树算法都一个重要的步骤 - 剪枝,但是这里不这样干,由于之前的两个随机采样的过程保证了随机性,所以就算不剪枝,也不会出现over-fitting。

    按这种算法得到的随机森林中的每一棵都是很弱的,但是大家组合起来就很厉害了。我觉得可以这样比喻随机森林算法:每一棵决策树就是一个精通于某一个窄领域 的专家(因为我们从M个feature中选择m让每一棵决策树进行学习),这样在随机森林中就有了很多个精通不同领域的专家,对一个新的问题(新的输入数 据),可以用不同的角度去看待它,最终由各个专家,投票得到结果。

    随机森林的过程请参考Mahout的random forest 。这个页面上写的比较清楚了,其中可能不明白的就是Information Gain,可以看看之前推荐过的文章

    相关文章

      网友评论

      • xkkd:关于拟合模型后给出特征的重要性这块。我最近用r做随机森林,它的importance有一个参数type 1的时候是准确度下降,2的时候是基尼下降,参数不一样对特征的排序也很不同,你知不知道应该怎么选择?
        另外看你文章里说用随机森林不用特征选择,是说可以把变量直接全放进去吗?还是别的意思?
        云时之间:@xkkd 先说第二个吧,随机森林中的树的每一个分裂过程并未用到所有的待选特征,而是从所有的待选特征中随机选取一定的特征,之后再在随机选取的特征中选取最优的特征。参与构建的决策树的变量也都是随机选出的,但是不用全都给,只要参与的变量通常大于可用的变量数就好。第一个问题改天我写个东西说一下吧,我现在也有点迷糊~

      本文标题:随机森林再复习

      本文链接:https://www.haomeiwen.com/subject/ipftkxtx.html