很久没有温习机器学习的算法了,还是容易将一些基本你的概念给弄混,那么本次回顾一下机器学习模型中的评估方式:
-
精确率、召回率、F1-score、准确率
首先来一个我们熟悉的混淆矩阵的图,这是一个二分类的混淆矩阵的图:
混淆矩阵
Item | 说明 | 预测正确与否 |
---|---|---|
TP | 将实际为正样例预测为正样例的个数 | 对,真正类 |
TN | 将实际为负样例预测为负样例的个数 | 对,真负类 |
FP | 将实际为正样例预测为负样例的个数 | 错,假正类 |
FN | 将实际为负样例预测为正样例的个数 | 错,假负类 |
TP+FP | 总的样例被预测为正样例的个数 | |
FN+TN | 总的样例被预测为负样例的个数 | |
TP+FN | 实际的正样例个数 | |
FP+TN | 实际的负样例个数 |
下标对一些度量的概念和公式进行说明
性能度量 | 公式 | 说明 |
---|---|---|
精确率(precision) | 分母为预测为正样例的个数,分子为预测为实际正样例被预测准的个数 | |
召回率(recall) | 分母为实际正样例的个数,分子为预测为实际正样例被预测准的个数 | |
F1-score | 混合的度量,对不平衡类别非常有效 | |
准确率(accuracy) | 模型的整体的性能的评估 | |
Specificity | 分母为实际负样例的个数,分子为预测为实际负样例被预测准的个数 |
举个例子:
我们实际有50个样例,50个负样例,然后经过分类器分类之后。50个正样例中有45个预测为正样例(预测准了),5个被预测成为了负样例。50个负样例中(预测错误),有40个被预测为了负样例(预测准了),10个被预测为了正样例(预测错误)。
实际情况 | 预测为正 | 预测为负 |
---|---|---|
50正 | 45 | 5 |
50负 | 10 | 40 |
根据这个例子,我们可以计算出:
性能度量 | 公式 |
---|---|
精确率(precision) | |
召回率(recall) | |
F1-score | |
准确率(accuracy) | |
Specificity |
下图很形象的说明了精确率和召回率的计算
- ROC和AUC曲线
ROC = The receiver operating curve,翻译过来就是受试者工作曲线,这条曲线的横轴为假正例率、纵轴是真正例率。
AUC = the area under the receiving operating curve。也就下图中蓝色部分的区域
理想目标:TPR=1,FPR=0,即图中(0,1)点,故ROC曲线越靠拢(0,1)点,越偏离45度对角线越好。
有些地方回顾不到位,请指教了哈,后面留的资料就是mit的小哥给总结的内容,总结得很棒!
参考资料
1、https://github.com/afshinea/stanford-cs-229-machine-learning
网友评论