现在做什么行业最赚钱最稳,单页网站排名优化,门户网站定制,做微信扫码网站机器学习常用评估指标
机器学习的评价指标有精度、精确率、召回率、P-R曲线、F1 值、TPR、FPR、ROC等指标#xff0c;还有在生物领域常用的敏感性、特异性等指标。
基础
在分类任务中#xff0c;各指标的计算基础都来自于对正负样本的分类结果#xff0c;用混淆矩阵表示还有在生物领域常用的敏感性、特异性等指标。
基础
在分类任务中各指标的计算基础都来自于对正负样本的分类结果用混淆矩阵表示如 图1 所示 其中 TPTrue Positives表示真正例即模型正确预测为正类的样本数量。 FNFalse Negatives表示假负例即模型错误预测为负类的正类样本数量。 FPFalse Positive表示假正例即模型错误地将负类预测为正类的情况。 TNTrue Negative表示真正例即模型正确地将负类预测为负类的情况。
精度 Accuracy T P T N T P F N F P T N \text{Accuracy} \frac{TP TN}{TP FN FP TN} AccuracyTPFNFPTNTPTN
即所有分类正确的样本占全部样本的比例。
精确率
精确率又叫Precision Precision T P T P F P \text{Precision} \frac{TP}{TP FP} PrecisionTPFPTP
模型预测为正例的样本中真正为正例的比例。
召回率
召回率又叫Recall、查全率 Recall T P T P F N \text{Recall} \frac{TP}{TP FN} RecallTPFNTP
即模型正确识别出的正类样本占所有实际正类样本的比例。
P-R曲线
P-R曲线又叫做PRC通过可视化的方式展示了模型在精确率和召回率两个关键指标之间的权衡关系。 理想情况下曲线应尽可能靠近右上角精确率和召回率均为 1。
APAverage Precision是 P-R 曲线与坐标轴围成的面积用于量化模型整体性能。AP 值越高模型在不同阈值下的综合表现越好。
F1 值
F1 值是机器学习中用于衡量分类模型性能的综合指标它通过调和平均的方式整合了精确率和召回率。 F 1 2 ∗ P ∗ R P R F1 \frac{2 \ast P \ast R}{P R} F1PR2∗P∗R
相较于算术平均调和平均更强调对较小值的敏感性。这意味着当精确率或召回率任意一方过低时F1 值会显著下降从而强制模型在两者间寻求平衡。
TPR
真正例率衡量正例识别能力即召回率。 TPR T P T P F N \text{TPR} \frac{TP}{TP FN} TPRTPFNTP
FPR
假正例率衡量负例误判为正例的比例。 FPR F P F P T N \text{FPR} \frac{FP}{FP TN} FPRFPTNFP
ROC
ROC曲线起源于二战时期的雷达信号检测理论用于衡量 “信号” 与 “噪声” 的区分能力。 P-R 和 ROC 的区别
ROC 曲线以FPR为横轴、TPR为纵轴侧重展示模型在不同阈值下区分正负样本的整体能力对样本不均衡不敏感适用于医疗诊断等需平衡误判成本的场景而 P-R 曲线以Recall为横轴、Precision为纵轴直接刻画正例预测的 “查准率” 与 “查全率” 权衡在正负样本高度失衡如欺诈检测时更能反映模型对稀有正例的识别性能两者分别从不同维度揭示模型在分类阈值调整下的表现需结合数据分布和业务目标选择使用。
AUC 即 ROC 曲线下的面积是评估二分类模型性能的核心指标。其本质是衡量模型对正负样本的排序能力——AUC 值越高模型将正样本排在负样本之前的概率越大。