美文网首页
特征选择之信息增益

特征选择之信息增益

作者: 山的那边是什么_ | 来源:发表于2016-05-16 17:01 被阅读4088次

在文本分类中利用信息增益进行特征提取

信息增益体现了特征的重要性,信息增益越大说明特征越重要

假设数据中有k类:

每类出现的概率是:

各类的信息熵计算公式:

对某个词汇word需要计算word在所有类别中出现的概率:

就是:出现word的文件数 除以总文件数

word不出现的概率:

就是没有出现word的文件数 除以总文件数

条件熵的计算:

这里我们用到了T表示word这个特征

其中

表示:出现word的文件的信息熵

计算方式:

其中:

表示出现word的情况下是Ci类的概率,计算方式:Ci类中出现word的文件数 除以 总的出现word的文件数

表示不出现word的条件熵

计算方式

其中

表示没有出现word的情况下是Ci类的概率,计算方式:Ci类中没有出现word的次数 除以 总类中没有出现word的次数

总的信息增益计算公式

信息熵体现了信息的不确定程度,熵越大表示特征越不稳定,对于此次的分类,越大表示类别之间的数据差别越大

条件熵体现了根据该特征分类后的不确定程度,越小说明分类后越稳定

信息增益=信息熵-条件熵,越大说明熵的变化越大,熵的变化越大越有利于分类

相关文章

  • 特征选择之信息增益

    在文本分类中利用信息增益进行特征提取 信息增益体现了特征的重要性,信息增益越大说明特征越重要 假设数据中有k类: ...

  • CART

    在ID3算法中我们使用了信息增益来选择特征,信息增益大的优先选择。在C4.5算法中,采用了信息增益比来选择特征,以...

  • 监督学习之树模型(4)-- CART算法

    在ID3算法中我们使用了信息增益来选择特征,信息增益大的优先选择。在C4.5算法中,采用了信息增益比来选择特征,以...

  • 什么是信息熵、条件熵和信息增益

    信息增益描述了一个特征带来的信息量的多少,往往用于特征选择 信息增益 = 信息熵 - 条件熵 一个特征往往会使一个...

  • 03-决策树(cart)

    1. CART分类树算法的最优特征选择方法 我们知道,在ID3算法中我们使用了信息增益来选择特征,信息增益大的优先...

  • 机器学习算法——决策树5(CART)

    三种算法比较 ID3:采用信息增益作为选择特征的标准,越大越好C4.5:采用信息增益率作为选择特征的标准,越大越好...

  • 李航-第5章决策树

    决策树的学习算法包特征选择、决策树的生成与决策树的剪枝过程。决策树学习应用信息增益准则选择特征。信息增益大的特征具...

  • 机器学习_决策树

    决策树 计算经验熵和信息增益 计算经验熵 输出: 计算信息增益 注:splitDataSet函数是用来选择各个特征...

  • 机器学习算法——决策树3(信息增益和ID3算法)

    信息增益 信息增益 算法思想 信息增益的算法过程为: 出入:训练数据集D和特征A 输出:特征A对训练数据集D的信息...

  • 1-2 决策树节点划分时的特征选择依据

    依据不同的决策树算法,在划分子节点时进行特征选择的依据有信息增益、信息增益比(又称信息增益率)、基尼系数三种。依次...

网友评论

      本文标题:特征选择之信息增益

      本文链接:https://www.haomeiwen.com/subject/qtmbrttx.html