随机森林提供了两种特征选择的方法:平均不纯度减少和平均精确度减少(sklearn没有直接提供)。
平均不纯度减少中,对于分类问题通常采用基尼不纯度或者信息增益。
对于回归问题,通常采用方差或者最小二乘拟合。
这个是平均不纯度减少的代码和运行结果。
rfr.feature_importances_随机森林里有现成的api,提供了特征重要性的选择。底层实现的评分标准是基尼重要性(Gini importance)。
随机森林提供了两种特征选择的方法:平均不纯度减少和平均精确度减少(sklearn没有直接提供)。
平均不纯度减少中,对于分类问题通常采用基尼不纯度或者信息增益。
对于回归问题,通常采用方差或者最小二乘拟合。
这个是平均不纯度减少的代码和运行结果。
rfr.feature_importances_随机森林里有现成的api,提供了特征重要性的选择。底层实现的评分标准是基尼重要性(Gini importance)。
本文标题:平均不纯度减少(mean_decrease_impurity)
本文链接:https://www.haomeiwen.com/subject/vbuxbftx.html
网友评论