- feature importance
feature importance是特征重要性,值都是正数,表示特征的重要性,但是无法显示特征对模型的效应是正还是负方向。
特征重要性的定义是当改变一个特征的值的时候,对于预测误差带来的变化。怎么理解呢?当我们改变一个特征,预测误差发生了很大的变化,说明该特征又很大的影响力,而相反的,如果改变另一个特征的值,对于预测结果的误差没有什么影响,那说明这个特征无关紧要。 -
shap值
shap值是对模型的特征的贡献的值的评估,分正负,正值表示特征对模型的预测是正效应,负值表示特征对模型的预测是负效应。
Shapley值是一个很有趣的工具,他假定每一个特征就好像游戏中的一个玩家,每个玩家对于预测的结果都有一定的贡献。对于每一个预测结果,Shapley值给出每一个特征对于这个预测结果的贡献度。
模型解释的常用方法
python的shap包具有的适用于不同类型的机器学习的类型的解释
- TreeExplainer : Support XGBoost, LightGBM, CatBoost and scikit-learn models by Tree SHAP. 示例用法
- DeepExplainer (DEEP SHAP) : Support TensorFlow and Keras models by using DeepLIFT and Shapley values.
- GradientExplainer : Support TensorFlow and Keras models.
- KernelExplainer (Kernel SHAP) : Applying to any models by using LIME and Shapley values.
网友评论