美文网首页
特征选择的方法

特征选择的方法

作者: 闫阿佳 | 来源:发表于2017-12-13 22:15 被阅读0次

特征选择的好处

便于理解和可视化数据,降低计算及存储压力,对抗维数灾难提高准确率,增加模型泛化能力;

总结一

  • 三大主流方法:过滤式,包裹式,嵌入式;
  • 过滤式:对特征重要性(方差,互信息,相关系数,卡方检验)排序选择,独立于模型;
  • 包裹式:确定模型和评价准则之后,对特征空间的不同子集做交叉验证,进而搜索最佳特征子集;如前向后向贪婪搜索策略;
  • 嵌入式:将特征选择和训练过程融为一体,例如决策树,L1正则化;

总结二

  1. 线性判别分析法(LDA),一种监督学习的降维技术;
  2. 主成分分析法(PCA);
  3. 相关系数法 使用相关系数法,先要计算各个特征对目标值的相关系;
  4. 构建单个特征的模型,通过模型的准确性为特征排序,借此来选择特征;
  5. 通过L1正则项来选择特征:L1正则方法具有稀疏解的特性,因此天然具备特征选择的特性
    (分别使用L1和L2拟合,如果两个特征在L2中系数相接近,在L1中一个系数为0一个不为0,那么其实这两个特征都应该保留,原因是L1对于强相关特征只会保留一个);
  6. 训练能够对特征打分的预选模型:RandomForest和LogisticRegression/GBDT等都能对模型的特征打分,通过打分获得相关性后再训练最终模型;(gbdt.feature_importances_)
  7. 方差选择法计算各个特征的方差,然后根据阈值,选择方差大于阈值的特征;
  8. 卡方检验 经典的卡方检验是检验定性自变量对定性因变量的相关性;
  9. 互信息法 互信息法经典的互信息也是评价定性自变量对定性因变量的相关性的;
  10. 通过特征组合后再来选择特征:如对用户id和用户特征最组合来获得较大的特征集再来选择特征,这种做法在推荐系统和广告系统中比较常见;
  11. 通过深度学习来进行特征选择;
  12. 传统用前进或者后退法的逐步回归来筛选特征或者对特征重要性排序,对于特征数量不多的情况还是适用的。

相关文章

  • 常用的文本分类的特征选择算法

    常采用特征选择方法。常见的六种特征选择方法: 1)DF(Document Frequency) 文档频率 DF:统...

  • 特征选择的方法

    特征选择的好处 便于理解和可视化数据,降低计算及存储压力,对抗维数灾难提高准确率,增加模型泛化能力; 总结一 三大...

  • 特征选择的方法

    Filter Filter这类方法是选定一个指标来评估特征,根据指标值来对特征排序,去掉达不到足够分数的特征。这类...

  • 算法笔记(19)自动特征选择及Python代码实现

    自动特征选择常用方法包括使用单一变量法进行特征选择、基于模型的特征选择、迭代式特征选择。 使用单一变量法进行特征选...

  • sklearn中的特征选择方法

    sklearn.feature_selection中提供了丰富的特征选择方法,包括单变量选择和递归的特征消除方法。...

  • 降维与特征选择

    第七章 降维与特征选择 [TOC] 1. 特征抽取和特征选择的区别 特征抽取:在已有的特征上,采用特征变换的方法,...

  • 结合Scikit-learn介绍几种常用的特征选择方法

    结合Scikit-learn介绍几种常用的特征选择方法 作者:Edwin Jarvis 特征选择(排序)对于数据科...

  • 特征提取和特征选择

    一、特征提取和特征选择异同1.特征提取 :通过映射(变换)的方法,将高维的特征向量变换为低维特征向量。2.特征选择...

  • 【转】随机森林做特征选择

    特征选择方法中,有一种方法是利用随机森林,进行特征的重要性度量,选择重要性较高的特征。下面对如何计算重要性进行说明...

  • 机器学习入门-降低维度

    降低维度的方法 选择特征从原有的特征中挑选出对结果影响最大的特征 抽取特征将数据从高维度空间投影到低维度空间 选择...

网友评论

      本文标题:特征选择的方法

      本文链接:https://www.haomeiwen.com/subject/jsgijxtx.html