模型评估

作者: jacksu在简书 | 来源:发表于2017-03-17 08:59 被阅读359次

过拟合

很可能巳经把训练样本自身的一些特点当作了所有潜在样本都
会具有的一般性质,这样就会导致泛化性能下降。

评估方法

通过实验测试来对学习器的泛化误差进行评估并进而做出选择 ,为此, 需使用一个 "测试集" (testing set) 来测试学习器对新样本的判别能力。

留出法

将数据集 D 划分为两个互斥的集合?其中一个集合作为训练集S ,另一个作为测试集 T, 即 D=SUT,S^T=空。

交叉法

交叉法

自助法

给定包含 m 个样本的数据集 D , 我们对它进行采样产生数据集 D': 每次随机从 D 中挑选一个样本, 将其拷贝放入 D'。
优点:自助法在数据集较小、难以有效划分训练/测试集时很有用。

性能度量

对学习器的泛化性能进行评估,不仅需要有效可行的实验评估方法,还需要有衡量模型泛化能力的评价标准。

错误率(error)

分类错误的样本占样本总数的比例

精度(accuracy)

精度=1-错误率

| 真实情况 | 预测结果 |
| ------| ------ | ------ |
|| 正例 | 反例|
| 正例 | TP(真正例 True Positive) | FN(假反例 False negative) |
| 反例 | FP (假正例)| TN(真反例) |

准确率也叫查准率(precision)

比如:“检索出的信息中有多少比例是用户感兴趣的”
查准率P=TP/(TP+FP)

召回率也叫查全率(recall)

比如:“用户感兴趣的信息有多少比例被检索出来了”。
召回率R=TP/(TP+FN)
查准率和查全率是一对矛盾的度量。一般来说,查准率高时,查全率往往偏低;而查全率高时,查准率往往偏低。

ROC 全称是"受试者工作特征" (Receiver Operating Characteristic) 曲线

ROC 曲线的纵轴是"真正例率" (True Positive Rate,简称 TPR),横轴是"假正例率" (False Positive Rate,简称 FPR)
TPR=TP/(TP+FN)
FPR=FP/(TN+FP)

AUC (Area Under ROC Curve)

ROC 曲线下的面积,面积越大,模型性能越好

损失(loss)

AUC=1-损失

比较校验

假设检验

假设检验(Hypothesis Testing)是数理统计学中根据一定假设条件由样本推断总体的一种方法。

假设检验

相关文章

  • 模型评估——模型评估方法

    Holdout检验 :是最简单直接的检验方法,它将原始样本数据集随机划分成训练集和测试集。 缺点就是不能保证训练集...

  • 机器学习面试题集-图解准确率,精确率,召回率

    今天进入第二章:模型评估 1. 什么是模型评估 模型训练后要对其进行评估,看模型表现如何,哪里可以改进 分类、排序...

  • 一文深度解读模型评估方法

    本文将总结机器学习最常见的模型评估指标。训练学习好的模型,通过客观地评估模型性能,才能更好实际运用决策。模型评估主...

  • 分类指标

    评估结果用于反应模型的好坏,必须设计合适的评估指标来测量该模型的好坏。模型的好坏是相对的,使用不同的评估指标对模型...

  • 西瓜书-模型评估与选择

    模型评估与选择 西瓜书第一章,模型评估与选择.

  • Evaluation of Maching Learning

    模型的评估分线上评估与线下评估,如何来对模型进行线上评估与线下评估呢?它们之间又有什么关系 首先怎么区别它们: 首...

  • 模型评估指标

    评估指标用于反映模型效果。在预测问题中,要评估模型的效果,就需要将模型预测结果f(X)和真实标注Y进行比较,评估指...

  • 机器学习(深度学习)常见面试题--基础知识篇

    1. 模型评估 在机器学习领域,模型评估至关重要,只有选择和问题相匹配的评估方法,才能更快更好的完成训练。将模型评...

  • 【百面机器学习】优化算法

    机器学习算法 = 模型表征 + 模型评估 + 优化算法。不同的优化算法对应的模型表征和评估指标分别为线性分类模型和...

  • 模型评估

    https://mp.weixin.qq.com/s/mepBsPIZaZhhVlumEJUErQ 各个模型评估方...

网友评论

    本文标题:模型评估

    本文链接:https://www.haomeiwen.com/subject/bzpwwttx.html