美文网首页
机器学习的特征的解释性:feature importance和s

机器学习的特征的解释性:feature importance和s

作者: wo_monic | 来源:发表于2023-11-20 11:16 被阅读0次
    • feature importance
      feature importance是特征重要性,值都是正数,表示特征的重要性,但是无法显示特征对模型的效应是正还是负方向。
      特征重要性的定义是当改变一个特征的值的时候,对于预测误差带来的变化。怎么理解呢?当我们改变一个特征,预测误差发生了很大的变化,说明该特征又很大的影响力,而相反的,如果改变另一个特征的值,对于预测结果的误差没有什么影响,那说明这个特征无关紧要。
    • shap值
      shap值是对模型的特征的贡献的值的评估,分正负,正值表示特征对模型的预测是正效应,负值表示特征对模型的预测是负效应。
      Shapley值是一个很有趣的工具,他假定每一个特征就好像游戏中的一个玩家,每个玩家对于预测的结果都有一定的贡献。对于每一个预测结果,Shapley值给出每一个特征对于这个预测结果的贡献度。


      模型解释的常用方法

      python的shap包具有的适用于不同类型的机器学习的类型的解释

    • TreeExplainer : Support XGBoost, LightGBM, CatBoost and scikit-learn models by Tree SHAP. 示例用法
    • DeepExplainer (DEEP SHAP) : Support TensorFlow and Keras models by using DeepLIFT and Shapley values.
    • GradientExplainer : Support TensorFlow and Keras models.
    • KernelExplainer (Kernel SHAP) : Applying to any models by using LIME and Shapley values.

    知乎——模型可解释性shap值

    相关文章

      网友评论

          本文标题:机器学习的特征的解释性:feature importance和s

          本文链接:https://www.haomeiwen.com/subject/hblvwdtx.html