打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
机器学习中常见的评估指标:Precision、recall、F

转载自:https://blog.csdn.net/weixin_42111770/article/details/81015809

在使用机器学习算法的过程中,我们需要对建立的模型进行评估来辨别模型的优劣,下文中主要介绍我在学习中经常遇见的几种评估指标。以下指标都是对分类问题的评估指标。

将标有正负例的数据集喂给模型后,一般能够得到下面四种情况:


  • True Positive(TP),模型将正实例判定为正类
  • False Negative(FN),模型将正实例判定为负类
  • False Positive(FP), 模型将负实例判定位正类
  • True Negative(TN),模型将负实例判定位负类

精度(Precision):精度是针对判定结果而言,预测为正类的样本(TP+FP)中真正是正实例(TP)的比率


召回率(Recall):召回率是针对样本而言,被正确判定的正实例(TP)在总的正实例中(TP+FN)的比率


精度和召回率虽然没有必然的关系,然而在大规模数据集合中,这两个指标却是相互制约的。一般情况下,召回率高时,精度低;精度高时,召回率低。

F-measure是精度(Precision)和召回率(Recall)的加权调和平均


时,就是常见的F1-measure:


准确率(Accuracy):模型正确分类的样本数(正实例被判定为正类,负实例被判定为负例)在总样本中的比重


ROC曲线(受试者工作特征曲线 receiver operating characteristic curve),是以假正性率(False positive rate,FPR)为横轴,真正类率(True positive rate,TPR)为纵轴所组成的坐标图,和受试者在特定刺激条件下由于采用不同的判断标准得出的不同结果画出的曲线。ROC曲线在测试集中的正负样本的分布变化时,能够保持不变。

真正类率,为被模型判定为正类的正实例在样本中正实例中的比例

假正类率,为被模型判定为正类的负实例在样本中负实例中的比例

ROC曲线上的每个点对是在某个阈值threshold下得到的(FPR, TPR)。设定一个阈值,大于这个阈值的实例被划分为正实例,小于这个值的实例则被划分为负实例,运行模型,得出结果,计算FPR和TPR值,更换阈值,循环操作,就得到不同阈值下的(FPR, TPR)对,即能绘制成ROC曲线。


AUC(Area Under Curve)是ROC曲线下的面积值,在0.5到1.0区间内。之所以使用AUC值作为评价标准是因为很多时候并不能从ROC曲线中判别模型的好坏,AUC值能量化模型的性能效果。AUC值越接近于1,说明模型性能越好,模型预测的准确率越高;如果多个模型进行性能比较,一般以AUC值大的模型比AUC值小的模型的性能好。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
[Algorithm] 机器学习算法常用指标总结
常见的模型算法评估指标
机器学习性能度量评价指标(MSE/R2/Acc/查准率/查全率/P-R/F1/ROC/AUC/KS)...
分类模型评估的实际编码
【AI初识境】深度学习模型评估,从图像分类到生成模型
机器学习:借助实例透彻理解ROC曲线及AUC算法模型评估指标
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服