0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

分类模型评估指标汇总

电子设计 ? 来源:电子设计 ? 作者:电子设计 ? 2020-12-10 21:38 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

作者:努力的孔子

对模型进行评估时,可以选择很多种指标,但不同的指标可能得到不同的结果,如何选择合适的指标,需要取决于任务需求。

正确率与错误率

正确率:正确分类的样本数/总样本数,accuracy

错误率:错误分类的样本数/总样本数,error

正确率+错误率=1

这两种指标最简单,也最常用

缺点

不一定能反应模型的泛化能力,如类别不均衡问题。

不能满足所有任务需求

如有一车西瓜,任务一:挑出的好瓜中有多少实际是好瓜,任务二: 所有的好瓜有多少被挑出来了,显然正确率和错误率不能解决这个问题。

查准率与查全率

先认识几个概念

正样本/正元组:目标元组,感兴趣的元组

负样本/负元组:其他元组

对于二分类问题,模型的预测结果可以划分为:真正例 TP、假正例 FP、真负例 TN、 假负例 FN,

真正例就是实际为正、预测为正,其他同理

显然 TP+FP+TN+FN=总样本数

混淆矩阵

把上面四种划分用混淆矩阵来表示

从而得出如下概念

查准率:预测为正里多少实际为正,precision,也叫精度

查全率:实际为正里多少预测为正,recall,也叫召回率

查准率和查全率是一对矛盾的度量。通常来讲,查准率高,查全率就低,反之亦然。

例如还是一车西瓜,我希望将所有好瓜尽可能选出来,如果我把所有瓜都选了,那自然所有好瓜都被选了,这就需要所有的瓜被识别为好瓜,此时查准率较低,而召回率是100%,

如果我希望选出的瓜都是好瓜,那就要慎重了,宁可不选,不能错选,这就需要预测为正就必须是真正例,此时查准率是100%,查全率可能较低。

注意我说的是可能较低,通常如果样本很好分,比如正的全分到正的,负的全分到负的,那查准率、查全率都是100%,不矛盾。

P-R曲线

既然矛盾,那两者之间的关系应该如下图

这条曲线叫 P-R曲线,即查准率-查全率曲线。

这条曲线怎么画出来的呢?可以这么理解,假如我用某种方法得到样本是正例的概率(如用模型对所有样本进行预测),然后把样本按概率排序,从高到低

如果模型把第一个预测为正,其余预测为负,此时查准率为1,查全率接近于0,

如果模型把前2个预测为正,其余预测为负,此时查准率稍微降低,查全率稍微增加,

依次...

如果模型把除最后一个外的样本预测为正,最后一个预测为负,那么查准率很低,查全率很高。

此时我把数据顺序打乱,画出来的图依然一样,即上图。

既然查准率和查全率互相矛盾,那用哪个作为评价指标呢?或者说同时用两个指标怎么评价模型呢?

两种情形

如果学习器A的P-R曲线能完全“包住”学习器C的P-R曲线,则A的性能优于C

如果学习器A的P-R曲线与学习器B的P-R曲线相交,则难以判断孰优孰劣,此时通常的作法是,固定查准率,比较查全率,或者固定查全率,比较查准率。

通常情况下曲线会相交,但是人们仍希望把两个学习器比出个高低,一个合理的方式是比较两条P-R曲线下的面积。

但是这个面积不好计算,于是人们又设计了一些其他综合考虑查准率查全率的方式,来替代面积计算。

平衡点:Break-Event Point,简称BEP,就是选择 查准率=查全率 的点,即上图,y=x直线与P-R曲线的交点

这种方法比较暴力

F1 与 Fβ 度量

更常用的方法是F1度量

即 F1 是 P 和 R 的调和平均数。

与算数平均数 和 几何平均数相比,调和平均数更重视较小值。

在一些应用中,对查准率和查全率的重视程度有所不同。

例如商品推荐系统,为了避免骚扰客户,希望推荐的内容都是客户感兴趣的,此时查准率比较重要,

又如资料查询系统,为了不漏掉有用信息,希望把所有资料都取到,此时查全率比较重要。

此时需要对查准率和查全率进行加权

即 P 和 R 的加权调和平均数。

β>0,β度量了查全率对查准率的重要性,β=1时即为F1

β>1,查全率更重要,β<1,查准率更重要

多分类的F1

多分类没有正例负例之说,那么可以转化为多个二分类,即多个混淆矩阵,在这多个混淆矩阵上综合考虑查准率和查全率,即多分类的F1

方法1

直接在每个混淆矩阵上计算出查准率和查全率,再求平均,这样得到“宏查准率”,“宏查全率”和“宏F1”

方法2

把混淆矩阵中对应元素相加求平均,即 TP 的平均,TN 的平均,等,再计算查准率、查全率、F1,这样得到“微查准率”,“微查全率”和“微F1”

ROC 与 AUC

很多学习器是为样本生成一个概率,然后和设定阈值进行比较,大于阈值为正例,小于为负例,如逻辑回归。

而模型的优劣取决于两点:

这个概率的计算准确与否

阈值的设定

我们把计算出的概率按从大到小排序,然后在某个点划分开,这个点就是阈值,可以根据实际任务需求来确定这个阈值,比如更重视查准率,则阈值设大点,若更重视查全率,则阈值设小点,

这里体现了同一模型的优化,

不同的模型计算出的概率是不一样的,也就是说样本按概率排序时顺序不同,那切分时自然可能分到不同的类,

这里体现了不同模型之间的差异,

所以ROC可以用来模型优化和模型选择,理论上讲 P-R曲线也可以。

ROC曲线的绘制方法与P-R曲线类似,不再赘述,结果如下图

横坐标为假正例率,纵坐标为真正例率,曲线下的面积叫 AUC

如何评价模型呢?

若学习器A的ROC曲线能包住学习器B的ROC曲线,则A优于B

若学习器A的ROC曲线与学习器B的ROC曲线相交,则难以比较孰优孰劣,此时可以比较AUC的大小

总结

模型评估主要考虑两种场景:类别均衡,类别不均衡

模型评估必须考虑实际任务需求

P-R 曲线和 ROC曲线可以用于模型选择

ROC曲线可以用于模型优化

参考资料:

周志华《机器学习

本文由博客一文多发平台 OpenWrite 发布!

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    3547

    浏览量

    50739
  • 机器学习
    +关注

    关注

    66

    文章

    8513

    浏览量

    135107
  • 深度学习
    +关注

    关注

    73

    文章

    5569

    浏览量

    123090
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NanoEdge AI生成的模型库,在keil里面编译后运行,返回都是0,没挑出单分类,怎么解决?

    我打算识别具有特定特征的曲线,我按照单分类进行训练。2维数据,输入时间序列数据,得分90+分,得到模型后。验证得分90+,我就在keil里面使用验证所用的数据,挑选了一些无特征和有特征的数据,判断结果都返回0。 如何解决呢?
    发表于 08-12 07:52

    如何评估协议分析仪的性能指标

    评估协议分析仪的性能指标需从硬件处理能力、协议解析精度、实时响应效率、扩展性与兼容性、用户体验五大维度综合考量。以下是具体指标评估方法,结合实际场景说明其重要性:一、硬件处理能力:决
    发表于 07-18 14:44

    天线的工作原理、分类及性能指标

    到神秘的雷达探测,从家庭电视信号接收到底层的遥感技术,天线的应用无处不在,其性能优劣直接关系到通信质量与信号覆盖范围。本文将深入剖析天线的工作原理、分类、性能指标以及测量方法,带您领略天线的神奇世界。
    的头像 发表于 07-07 13:39 ?1567次阅读
    天线的工作原理、<b class='flag-5'>分类</b>及性能<b class='flag-5'>指标</b>

    模型领域常用名词解释(近100个)

    本文总结了大模型领域常用的近100个名词解释,并按照模型架构与基础概念,训练方法与技术,模型优化与压缩,推理与应用,计算与性能优化,数据与标签,模型
    的头像 发表于 02-19 11:49 ?891次阅读
    大<b class='flag-5'>模型</b>领域常用名词解释(近100个)

    ADC的静态指标有专用的分析工具吗?

    请问:ADC的静态指标有专用的分析工具吗?该指标很少在评估ADC指标时使用,是否该指标不重要,应用中什么情况下需要
    发表于 02-08 08:13

    SPEC ML基准测试新增模算效率指标

    和模算效率三大关键指标。 作为此次更新的亮点之一,模算效率首次被纳入SPEC ML基准评测体系。这一指标的加入,旨在填补大模型计算效率评测基准领域的研究空白,为AI领域的发展提供更加全面、准确的
    的头像 发表于 01-15 14:28 ?560次阅读

    【「大模型启示录」阅读体验】如何在客服领域应用大模型

    内为企业带来效益。在选择模型时,需要评估其性能表现。这包括模型的准确性、响应速度、对话流畅性、情感理解能力等方面。可以通过对比不同模型的测试结果、查看用户反馈和评分等方式来
    发表于 12-17 16:53

    如何评估 Llama 3 的输出质量

    评估Llama 3(假设这是一个虚构的人工智能模型或系统)的输出质量,可以通过以下几个步骤来进行: 定义质量标准 : 在开始评估之前,需要明确什么是“高质量”的输出。这可能包括准确性、相关性、一致性
    的头像 发表于 10-27 14:32 ?797次阅读

    如何评估AI大模型的效果

    评估AI大模型的效果是一个复杂且多维度的过程,涉及多个方面的考量。以下是一些关键的评估方法和步骤: 一、基准测试(Benchmarking) 使用标准数据集和任务来评估
    的头像 发表于 10-23 15:21 ?3442次阅读

    Meta推出可自我评估AI模型

    Meta近期宣布了一项重要的人工智能进展,即将发布一系列全新的人工智能模型。其中,一款能够自我评估模型尤为引人注目,这一创新有望显著减少人工智能开发过程中的人类参与。
    的头像 发表于 10-22 17:07 ?708次阅读

    【每天学点AI】人工智能大模型评估标准有哪些?

    OpenAI新模型o1号称编程能力8倍杀GPT-4o,MMLU媲美人类专家,MMLU是什么?评估模型的标准是什么?相信大家在阅读大模型相关文档的时候经常会看到MMLU,BBH,GSM
    的头像 发表于 10-17 16:49 ?1582次阅读
    【每天学点AI】人工智能大<b class='flag-5'>模型</b><b class='flag-5'>评估</b>标准有哪些?

    安泰电子:功率放大器的主要性能指标分类

    功率放大器是电子系统中的关键组件,用于增大信号的幅度,以便驱动负载,如扬声器或天线。在选择功率放大器时,了解其主要性能指标分类是至关重要的。本文将深入介绍功率放大器的关键性能指标以及不同类型的
    的头像 发表于 10-11 11:35 ?808次阅读
    安泰电子:功率放大器的主要性能<b class='flag-5'>指标</b>及<b class='flag-5'>分类</b>

    ADC的分类和选型技术指标

    ADC(模数转换器)作为模拟系统与数字系统接口的关键部件,其种类繁多,功能各异。根据不同的分类标准,ADC可以分为多种类型。
    的头像 发表于 09-06 16:18 ?3312次阅读

    OpenAI与Anthropic新模型将受美政府评估

    近日,美国政府宣布了一项重要合作,旨在加强人工智能安全监管。根据协议,OpenAI与Anthropic两大AI领军企业同意,在推出新的AI模型之前,先将其提交给美国人工智能安全问题研究所进行评估。这一举措旨在确保新模型在能力范围
    的头像 发表于 08-30 15:35 ?618次阅读

    DRAM的分类、特点及技术指标

    DRAM(Dynamic Random Access Memory),即动态随机存取存储器,是计算机系统中广泛使用的内存类型之一。它以其高速、大容量和相对低成本的特点,在数据处理和存储中发挥着关键作用。以下将详细介绍DRAM的分类、特点以及技术指标
    的头像 发表于 08-20 09:35 ?6647次阅读