欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 会展 > 【漫话机器学习系列】006.AUC值(Area Under The Curve)

【漫话机器学习系列】006.AUC值(Area Under The Curve)

2024/12/21 23:47:02 来源:https://blog.csdn.net/IT_ORACLE/article/details/144450420  浏览:    关键词:【漫话机器学习系列】006.AUC值(Area Under The Curve)

8e3eda27ea774ad381bf26807b867891.jpeg

AUC值(Area Under Curve)

1. 概念

AUC(Area Under the Curve)指的是 ROC 曲线下的面积,是评估二分类模型性能的重要指标。AUC 的值介于 0 和 1 之间,表示模型区分正负样本的能力。


2. ROC 曲线

ROC 曲线(Receiver Operating Characteristic Curve)是以 假正率(False Positive Rate, FPR) 为横轴,真正率(True Positive Rate, TPR) 为纵轴的曲线。

  • TPR(True Positive Rate)eq?%5Ctext%7BTPR%7D%20%3D%20%5Cfrac%7B%5Ctext%7BTP%7D%7D%7B%5Ctext%7BTP%7D%20+%20%5Ctext%7BFN%7D%7D
    表示正样本被正确分类的比例。
  • FPR(False Positive Rate)eq?%5Ctext%7BFPR%7D%20%3D%20%5Cfrac%7B%5Ctext%7BFP%7D%7D%7B%5Ctext%7BFP%7D%20+%20%5Ctext%7BTN%7D%7D
    表示负样本被错误分类为正样本的比例。

3. AUC 的含义

  • AUC 是 ROC 曲线下的面积,其物理意义是随机选择一个正样本和一个负样本,分类器正确将正样本排在负样本前面的概率。
  • AUC 值的范围及含义:
    • AUC = 1:完美模型,分类器能完全区分正负样本。
    • AUC = 0.5:无判别能力,分类器表现与随机猜测相同。
    • AUC < 0.5:模型表现差,可能预测方向反了。

4. 计算 AUC

AUC 的计算通常通过数值积分实现,可分为以下步骤:

  1. 按预测概率对样本排序。
  2. 遍历预测值,根据阈值计算 TPR 和 FPR。
  3. 将 ROC 曲线下的面积累加。

简单公式: 若数据规模较小,可根据以下公式快速计算:

%202%7D%7Bn_%7Bpositive%7D%20%5Ccdot%20n_%7Bnegative%7D%7D

其中:

  • eq?R_%7Bpositive%7D​:正样本的秩和。
  • eq?n_%7Bpositive%7D​:正样本数量。
  • eq?n_%7Bnegative%7D:负样本数量。

5. AUC 的优点

  1. 对类别不平衡不敏感
    • AUC 不受类别比例影响,非常适合处理类别不平衡的数据。
  2. 与阈值无关
    • AUC 考虑了所有可能的决策阈值,评估模型的整体性能。

6. AUC 的局限性

  1. 实际业务意义有限
    • AUC 强调整体性能,但在某些实际场景中,可能更关注特定的 TPR 和 FPR。
  2. 对置信概率排序依赖
    • AUC 值依赖预测概率的排序,不能完全反映模型的概率校准质量。

7. Python 实现

以下是使用 scikit-learn 计算 AUC 值的代码示例:

from sklearn.metrics import roc_curve, auc
import numpy as np# 模拟数据
y_true = [0, 0, 1, 1]  # 真实标签
y_scores = [0.1, 0.4, 0.35, 0.8]  # 模型预测概率# 计算 FPR 和 TPR
fpr, tpr, thresholds = roc_curve(y_true, y_scores)# 计算 AUC 值
auc_value = auc(fpr, tpr)print("FPR:", fpr)
print("TPR:", tpr)
print("AUC 值:", auc_value)

输出结果

FPR: [0.  0.  0.5 0.5 1. ]
TPR: [0.  0.5 0.5 1.  1. ]
AUC 值: 0.75

8. 总结

  • AUC 是二分类模型性能评估的常用指标,反映模型区分正负样本的能力。
  • 它综合了所有可能的决策阈值,因此是一种全面的评估标准。
  • 在模型评估中,AUC 通常与其他指标(如准确率、精确率、召回率等)结合使用,以全面了解模型性能。

 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com