分类中的评估标准
Shortcoming of Accuracy
- 类别不平衡问题时,评估不当。
- 当我们想在某一类的评估中增加犯错代价时,Accuracy不能很客观地做出评估。
Confusion Matrix
sklearn 中实际结果在y轴,预测结果在矩阵x轴
Precision
查准率 = TP/(TP+FP)
Recall
查全率= TP/(TP+FN)
F1_score
之所以称为 score,个人有两个原因:
- 因为其变化范围在0-1,1最好,0最差。在回归问题中有相应的R2_score
- score metric与error metric(包括mae和mse是两个对立面),socre越高,模型越好,而error越低效果越好。
F1可以理解为查准率和查全率的加权
f1 = 2 x Precision x Recall / ( Precision + Recall)
回归中的评估标准
MAE 均绝对值误差
为什么取绝对值?防止过高和过低的预测相互抵消。
MSE 均方误差
优点:
- 比起引起较小的误差训练样本,更强调引起较大误差的训练样本。
- 可以微分。可以用使用许多优化算法。
R2_score
回归预测得metrics有很多score,R2是sklearn中默认的score, which computes the coefficient of determination of predictions for true values. (暂时不理解)
网友评论