评价指标


混淆矩阵(Confusion Matrix)

混淆矩阵
预测
类1 类2 类3
实际 类1
类2
类3

每一行之和为该类别真实样本数量,每一列之和为预测为该类的样本数量,对角线上为预测正确。

TP TN FP FN

TP(True Positive): 结果为正例,预测为正例
TN(True Negative): 结果为负例,预测为负例
FP(False Positive):结果为正例,预测为负例
FN(False Negative):结果为负例,预测为正例

精确率(Precision)、召回率(Recall)、准确率(Accuracy)

精确率/查准率(Precision):/(P=/frac{TP}{TP+FP}/) 真正例在所有预测正例所占的比例,精确率高说明检测出的物体中的正确率高
召回率/查全率(Recall):/(R=/frac{TP}{TP+FN}/) 真正例在所有真实正例中所占的比例,召回率关注的是这一类有多少判断正确了,召回率高说明可以出检测更多的物体
准确率(Accuracy)=/(/frac{TP+TN}{TP+TN+FP+FN}/) 检测正确率

/(F_1/)-score和/(F_/beta/)-score

/(F_1/)-score为精确率和召回率的调和平均数
/(F_1= /frac{2(P*R)}{P+R}/)
/(F_/beta=(1+/beta^2)/frac{(P*R)}{/beta^2*P+R}/),其中/(/beta/)为权重,召回率R是精确率P的/(/beta/)倍,/(F_1/)表示权重相等

ROC-AUC、PR

ROC(Receiver Operating Characteristic)
ROC曲线横轴为/(FPR=/frac{FP}{FP+TN}/)(假负例率),纵轴为/(TPR=/frac{TP}{TP+FN}/)
评价指标
对于同一个threshold,TPR越高或者FPR越低,模型的表现越好。因此,模型的ROC曲线是越向左上方凸起,模型的表现越好。
ROC-AUC(Area Under Curve)
ROC曲线下的面积,显然面积越大,模型表现越好,ROC-AUC的值在[0.5, 1]之间。
PR曲线
横轴为R(召回率),纵轴为P(精确率)
曲线越向右上角凸,模型表现越好。
什么时候使用ROC-AUC?
1.当我们真正关心的是对于排名的预测,而不需要输出经过良好校准的概率时,应该使用它,例如,在搜索、推荐等互联网的排序业务中。而在广告等需要绝对的点击率场景下,AUC并不适合作为评估指标,此时应当用logloss等指标。

2.样本不平衡的时候。因为ROC-AUC对于正负样本的比例不敏感。

3.当我们同样关心Positive Samples和Negative Samples时,我们可以使用ROC-AUC。
什么时候用PR-AUC?
1.当我们想要和模型使用者讨论我们是如何权衡precision和recall的时候。

2.当我们想要选择能够适合商业应用的threshold的时候。

3.当我们更关注Positive Samples的时候。因为Precision和Recall衡量的都是模型找到Positive Samples的能力。

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/tech/pnotes/280559.html

(0)
上一篇 2022年8月14日 22:49
下一篇 2022年8月14日 22:49

相关推荐

发表回复

登录后才能评论