美文网首页
分类模型的评估

分类模型的评估

作者: _aLIEz | 来源:发表于2020-01-31 22:31 被阅读0次

分类模型的评估

* 精确率和召回率         

estimator.score() 一般最常见使用的是准确率,及预测结果正确的百分比

混淆矩阵:在分类任务中,预测结果与正确标记之间存在四个不同组合,构成混淆矩阵

正例 假例
正例 真正例TP 伪反例FN
假例 伪正例FP 真反例TN

评估标准:精确率,召回率,并不是只有准确率


image

F1-score:反映了模型稳健性
正确率、召回率和 F 值是在鱼龙混杂的环境中,选出目标的重要评价指标。
不妨看看这些指标的定义先:
1. 正确率 = 提取出的正确信息条数 / 提取出的信息条数
2. 召回率 = 提取出的正确信息条数 / 样本中的信息条数 两者取值在0和1之间,数值越接近1,查准率或查全率就越高。
3. F值 = 正确率 * 召回率 * 2 / (正确率 + 召回率) (F 值即为正确率和召回率的调和平均值)

不妨举这样一个例子:某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:正确率 = 700 / (700 + 200 + 100) 70%召回率 = 700 / 1400 = 50% F值 = 70% * 50% * 2 / (70% + 50%) = 58.3%不妨看看如果把池子里的所有的鲤鱼、虾和鳖都一网打尽,这些指标又有何变化:正确率 = 1400 / (1400 + 300 + 300) = 70%召回率 = 1400 / 1400 = 100%F值 = 70% * 100% * 2 / (70% + 100%) = 82.35% 由此可见,正确率是评估捕获的成果中目标成果所占得比例;召回率,顾名思义,就是从关注领域中,召回目标类别的比例;而F值,则是综合这二者指标的评估指标,用于综合反映整体的指标。

宏平均(macro-average)与微平均(micro-average)加权平均( weighted avg )
accuracy = (分类正确的样本个数) / (分类的所有样本个数)

相关文章

  • 分类模型的评估(三)

    在前两篇文章里(《分类模型的评估(一)》和《分类模型的评估(二)》),针对二分类问题,我们分别讨论了 评估某个给定...

  • 复习 - 模型测试

    一、模型测试的API总结 1、分类算法评估方式 2、回归算法评估方式 二、分类模型测试 交叉验证:(Cross V...

  • 机器学习面试题集-图解准确率,精确率,召回率

    今天进入第二章:模型评估 1. 什么是模型评估 模型训练后要对其进行评估,看模型表现如何,哪里可以改进 分类、排序...

  • 【百面机器学习】优化算法

    机器学习算法 = 模型表征 + 模型评估 + 优化算法。不同的优化算法对应的模型表征和评估指标分别为线性分类模型和...

  • 分类模型的评估

    分类模型的评估 estimator.score() 一般最常见使用的是准确率,及预测结果正确的百分比 混淆矩阵:在...

  • 模型性能评估

    目录 1、模型评估指标 2、总结 1、模型评估指标 2、总结:本文以思维导图的方式罗列了二分类中模型评估中常用的指...

  • 活学活用之运用分类模型评估的方法以及用Python实现!

    提到分类模型评估相信大家应该都不会觉得陌生(不陌生你点进来干嘛[捂脸]),本文就分类模型评估的基本原理进行讲解,并...

  • 5、sklearn模型建立及评估

    前置工作 填充数据 编码分类变量 划分数据集 模型搭建 模型评估 模型评估是为了知道模型的泛化能力,主要指标有:1...

  • 从数据的角度理解TensorFlow鸢尾花分类程序8

    接上节,本节继续分析:5,评估模型的效果: 评估指的是确定模型进行预测的效果。要确定鸢尾花分类模型的效果,需要将测...

  • 7.7 分类模型评估

    “所有模型都是坏的,但有些模型是有用的”。建立模型之后,接下来就要去评估模型,以确定此模型是否“有用”。sklea...

网友评论

      本文标题:分类模型的评估

      本文链接:https://www.haomeiwen.com/subject/zdynthtx.html