0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

后摩智能四篇论文入选三大国际顶会

后摩智能 ? 来源:后摩智能 ? 2025-05-29 15:37 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

2025 年上半年,继年初被AAAIICLR、DAC 三大国际顶会收录 5 篇论文后,后摩智能近期又有 4 篇论文入选CVPR、ICML、ACL三大国际顶会,面向大模型的编码、量化、压缩与微调等技术难题提出创新性解决方案,为大模型的性能提升、多场景部署建构了可行路径。

众所周知,CVPR作为计算机视觉领域国际顶级会议,专注于图像和视频的感知与理解;ICML作为机器学习领域顶会,强调算法、理论与模型创新;ACL作为自然语言处理领域顶会,聚焦语言理解与生成。这三大会议分别代表了人工智能的三个核心子领域,是全球学术界和产业界高度关注的重要学术交流平台。

本文将简要概述近期被收录论文的关键工作。

01【CVPR-2025】PillarHist:AQuantization-aware PillarFeature Encoderbased onHeight-aware Histogram

PillarHist:一种基于高度直方图的高效 pillar 特征编码方法

自动驾驶机器人等对实时感知要求较高的场景中,基于LiDAR的3D目标检测技术近年来得到了广泛关注。Pillar-based方法因其结构简单、计算效率高,成为了当前主流的轻量级三维检测方案之一。然而,我们在调研和实验中发现,现有的pillar特征编码模块(PFE)在处理高度信息和模型量化方面仍存在一定局限。

研究动机

当前大多数PFE模块采用max pooling等方式对点云特征进行汇聚,这种策略虽然计算高效,但容易造成细粒度信息的丢失,特别是在高度维度上的表达不够充分。此外,由于输入特征量纲差异大,直接量化后模型性能往往下降较为明显。

为了解决上述问题,我们提出了一种新的pillar特征编码方法——PillarHist,旨在在保持高效率的同时,增强模型对高度信息的建模能力,并提升其在低比特量化下的鲁棒性。

方法简介

PillarHist的核心思想是通过高度离散直方图来替代传统的点级特征汇聚方式。具体而言,我们将每个pillar在高度方向划分为若干个区间(bin),统计每个区间内的点数以及反射强度的加权平均值,从而构建出包含几何与语义信息的直方图特征表示。同时,结合pillar的中心坐标信息,我们通过一个轻量的线性层将其映射为最终的pillar特征向量。

与传统PFE模块相比,PillarHist具有以下优势:

更强的高度建模能力:保留了点云在高度维度上的结构信息;

避免信息丢失:不再依赖max pooling,减少特征压缩带来的损失;

计算更高效:特征提取操作在pillar级别完成,降低了总体计算开销;

量化友好:特征值范围稳定,INT8量化后性能下降更小。

实验结果

我们在KITTI、nuScenes和Waymo等多个公开数据集上对PillarHist进行了验证。在多个主流pillar-based检测框架(如PointPillars、CenterPoint、PillarNet等)中引入PillarHist后,模型在精度和推理速度方面均有不同程度的提升。其中,在nuScenes上平均提升约1%的NDS,同时推理延迟降低4~9ms。在8-bit量化实验中,PillarHist有效减少了量化带来的性能损失,表现出良好的硬件适应性。

总结

PillarHist作为一种结构简单但有效的PFE模块,能够在不改变原有检测框架的前提下,提升模型对高度信息的表达能力,并增强其在实际部署中的可用性。我们希望这一工作能为三维目标检测尤其是轻量化和部署友好的设计提供一种可行的方向。

02【ICML-2025】RWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization

RWKVQuant:首个面向RWKV模型的高效量化框架

在大模型时代,Transformer架构独领风骚,但近年来一种融合了RNN与Transformer优势的新型架构——RWKV,正在悄然崛起。RWKV模型以其推理高效、结构简洁等特性,在语言和视觉任务上均展现出媲美主流大模型的性能。然而,RWKV在部署到边缘设备或资源受限场景时,仍面临模型体积大、计算开销高等现实挑战。

为此,我们重磅推出RWKVQuant——首个专为RWKV模型设计的后训练量化(Post-Training Quantization,简称PTQ)框架,以应对RWKV模型在部署过程中的性能瓶颈!

研究动机

尽管已有许多PTQ方法在Transformer类模型中取得了成功,例如GPTQ、AWQ、GPTVQ等,但直接将这些方法应用于RWKV模型时,效果却大打折扣:

非线性操作阻碍了参数融合:RWKV结构中含有Token Shift、Sigmoid、指数函数等非线性模块,导致SmoothQuant、QuaRot等方法无法像在Transformer中那样高效融合参数,反而引入了额外计算开销;

权重分布更均匀,聚类难度大:RWKV权重呈现更强的均匀性,这对传统基于聚类的向量量化(VQ)方法构成挑战,聚类效果不佳,精度下降严重。

方法简介

RWKVQuant创新性地提出代理引导的标量-向量混合量化策略,实现高压缩率和高保真度的完美平衡:

1. 粗到细的双层代理机制

粗粒度代理(Information Entropy):衡量权重整体的均匀性。当权重分布不均时,直接采用VQ;

细粒度代理(高阶中心矩):即使整体均匀,也能识别局部异常值。若存在离群点,仍优先选择VQ;否则使用SQ。

此机制极大提升了量化策略的适应性和智能决策能力。

2. 针对RWKV结构优化的codebook生成

RWKV在所有投影层中大量使用逐元素乘法操作,而现有VQ方法多针对矩阵乘法模块。RWKVQuant首创了适用于逐元素乘法的codebook优化算法,通过激活值加权KMeans聚类,有效降低量化误差。

实验结果

RWKVQuant在多个RWKV模型上进行了验证,取得了显著成果:

量化比特数降低至约3-bit,精度损失小于1%;

RWKV-6-14B模型内存占用减少至原来的1/3;

推理速度提升高达2.14倍;

在LAMBADA等语言理解任务上,PPL下降、Zero-shot准确率提升,远超GPTQ、AWQ、GPTVQ等主流方法;

在ImageNet、COCO和ADE20K等视觉任务上,RWKVQuant同样表现出色。

总结

RWKVQuant的推出,标志着RWKV模型在轻量化部署领域迈出了关键一步。我们相信,这一创新性的量化框架不仅能推动RWKV在语言与视觉任务中的广泛应用,也将为大模型在资源受限环境下的落地提供全新可能。

03【ICML-2025】MoEQuant: Enhancing Quantization for Mixture-of-Experts Large Language Models via Expert-Balanced Sampling and Affinity Guidance

解锁MoE大模型部署新范式:MoEQuant让压缩不再“牺牲性能”

近年来,大语言模型(LLMs)在自然语言处理领域取得了突破性进展,尤其是引入“专家混合”(Mixture-of-Experts, MoE)架构的模型,以其高效、可扩展的特性,成为推动模型性能与计算效率双赢的重要方向。

然而,MoE模型也带来了新的挑战:激活参数稀疏,存储压力巨大,尤其在推理阶段,虽然只激活少数专家,但所有专家参数必须常驻显存,导致部署成本居高不下。如何让MoE大模型“瘦身”而又不“失智”,成为业界亟待解决的问题。

研究动机

传统PTQ方法如 GPTQ 和 AWQ 在标准LLMs中表现出色,但在应用到MoE模型时却显得力不从心。其原因在于:MoE架构的稀疏激活和动态路由机制,打破了常规量化对样本分布和重要性评估的假设,导致量化后模型性能急剧下降。

为此,MoEQuant 识别并解决了两个核心问题:

专家间不平衡 (Inter-expert imbalance):部分专家在校准过程中被频繁激活,而另一些专家几乎被忽略,导致量化精度失衡;

专家内相关性不一致(Intra-expert imbalance):不同样本与专家之间的“亲和度”差异显著,传统量化忽略了这种动态关系,导致权重更新失真。

方法简介

MoEQuant 引入如下两项关键技术,有效解决上述挑战:

Expert-Balanced Self-Sampling(EBSS)

传统量化依赖固定校准集(如 WikiText2),在 MoE 中容易出现样本分布偏差。EBSS 利用模型自采样机制,在确保语义合理的前提下,引导生成覆盖各专家的均衡样本集,显著提升校准质量。

Affinity-Guided Quantization (AGQ)

AGQ 首次将“样本-专家亲和度”纳入量化过程,为每个样本分配权重,引导误差优化方向,并重新定义Hessian矩阵计算方式,使量化更加精细化、感知MoE动态特性。

实验结果

在Qwen-MoE-14B、DeepSeek-MoE-16B 和 Mixtral-8x7B 三大知名 MoE 模型上,MoEQuant 实现了令人瞩目的成果:

HumanEval 编程任务准确率提升超10个百分点;

在 GSM8K、MMLU、BoolQ 等推理任务上表现全面优于 GPTQ 和 AWQ;

部署效率提升:平均推理速度提升 1.2×,显存节省 3.2×,支持在消费级GPU(如 RTX 4090)部署大模型。

更令人惊喜的是,在指令微调版本(Chat模型)中,MoEQuant 依然保持高精度,部分任务甚至超过全精度模型性能,这对实际应用部署具有重大意义。

总结

MoEQuant 的提出,不仅是大模型量化技术的一次飞跃,更是向“高性能+低成本”大模型部署目标迈出的坚实一步。在未来的AI应用场景中,无论是边缘设备部署,还是云端推理优化,MoEQuant 都将成为不可或缺的“压缩利器”。

04【ACL-2025】GSQ-Tuning: Group-Shared Exponents Integer in Fully Quantized Training for LLMs On-Device Fine-tuning

GSQ-Tuning:探索资源受限设备上的大模型微调新路径

近年来,大语言模型(LLM)在自然语言处理、代码生成、多模态理解等领域取得了突破性进展。然而,随着模型规模的不断扩大,将其部署到资源受限的边缘设备,仍面临诸多挑战。传统的微调方式通常依赖大规模浮点运算,不仅计算资源需求高,而且在涉及隐私数据时存在上传云端的风险。

为此,我们提出了一种全新的大模型微调方法 GSQ-Tuning(Group-Shared Exponents Quantization Tuning),旨在实现低浮点依赖、端到端整数化的大模型微调流程,更适配隐私敏感与资源受限的终端场景。

方法简介

GSQ-Tuning 的关键技术在于我们设计的 Group-Shared Exponents Integer(GSE)格式。针对传统浮点格式中指数位冗余的问题,GSE 通过在一组参数中共享指数位,实现更高效的低比特整数表示。具体而言:

每组数据共享一个 5-bit 指数位;

替代浮点的隐式前导 1 表示,采用显式整数表示;

通过指数共享,大幅减少了存储与计算时的元数据开销。

这一表示方式不仅保留了数据的动态范围,还提升了表示密度,尤其适用于具有空间局部性特征的神经网络权重和激活值。

1.整数化算子支持:Forward & Backward

在算子层面,GSQ-Tuning 不仅支持前向传播的整数矩阵乘法,还将整数计算扩展至反向传播与梯度更新阶段,实现真正意义上的 Fully Quantized Training。我们采用了经典的 Quantize-Compute-Dequantize(QCD) 流程:

量化:将输入权重、激活与梯度从高精度(如 BF16)转换为 GSE-INT 格式;

计算:在整数域中完成乘加运算(MAC),利用共享指数实现高效缩放;

反量化:必要时将输出转换回高精度格式做后处理或损失计算。

这一流程不仅适配 INT5/INT6 等低比特精度,还显著提升了对整数计算硬件(如手机 NPU、FPGA、边缘 AI 芯片)的利用率。

2.与 LoRA 的结合:高效参数微调

为了进一步降低训练开销,我们将 GSQ-Tuning 与主流的 LoRA(Low-Rank Adaptation) 方法结合,仅对少量低秩矩阵进行更新。不同于 QLoRA 仍需在 BF16 精度下更新 LoRA 参数,我们在 LoRA 分支同样采用整数化表示与更新,使整个训练流程真正实现浮点“归零”。

我们还提出了 位宽与秩的协同优化策略(Bits-Rank Pareto Frontier),根据资源预算灵活选择参数配置,在精度与效率间找到最优平衡。

实验结果

我们在多个 LLaMA 系列模型(3B~70B)、多种微调数据集(Alpaca、CS170K)和任务(BoolQ、PIQA、HellaSwag 等)上进行了验证:

在 6-bit 设置下,GSQ-Tuning 的精度与 FP16 微调几乎持平,平均仅下降不到 1%;

与 FP8 相比,在相同任务精度下,功耗降低约 5 倍,芯片面积减少约 11 倍;

内存使用方面,GSQ-Tuning 比 QLoRA 至少节省 40%~50% 的显存开销。

此外,在多模态任务(如 LLaVA-v1.5)中,我们也观察到 GSE 格式在视觉-语言联合学习中具有良好的迁移与泛化能力。

总结

GSQ-Tuning 是我们在大模型端侧部署探索过程中的一次初步尝试。通过全流程整数化、参数高效更新和硬件友好设计,我们希望为大模型在本地化、个性化、隐私保护等应用场景提供一种更实际、更落地的技术路径。

上述4篇论文聚焦模型的编码、量化、压缩与微调等技术瓶颈,从性能提升到场景部署,多维展现了后摩智能在AI技术创新与应用上的前瞻性与深度思考。研究成果从理解准确率、空间占用率、推理速率、部署效率等多方面,为大模型的轻量化部署、端侧部署以及边缘设备部署提供了更多可行方案。

接下来,我们将依序发布4篇论文深度解析,详尽分享每篇论文的创新思路等,欢迎关注。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器学习
    +关注

    关注

    66

    文章

    8510

    浏览量

    134844
  • 自然语言处理

    关注

    1

    文章

    628

    浏览量

    14197
  • 后摩智能
    +关注

    关注

    0

    文章

    38

    浏览量

    1395
  • 大模型
    +关注

    关注

    2

    文章

    3191

    浏览量

    4146

原文标题:后摩前沿 | 后摩智能4篇论文入选CVPR、ICML、ACL三大国际顶会,攻关大模型端边侧部署关键技术

文章出处:【微信号:后摩智能,微信公众号:后摩智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    漫界M50亮相WAIC 2025

    AI 芯片的领跑者,智能携全新发布的端边大模型 AI 芯片漫界M50 (以下简称M50 )系列产品、
    的头像 发表于 07-31 17:06 ?239次阅读

    智能发布全新端边大模型AI芯片

    7月25日,WAIC 2025 前夕,智能正式发布全新端边大模型 AI 芯片——漫界M50,同步推出力擎系列 M.2卡、力谋系列加速
    的头像 发表于 07-26 16:09 ?681次阅读

    格灵深瞳六论文入选ICCV 2025

    近日,国际顶级会议ICCV 2025(计算机视觉国际大会)公布论文录用结果,格灵深瞳团队共有6论文入选
    的头像 发表于 07-07 18:23 ?579次阅读

    智能与高校合作研究成果荣获ISCA 2025最佳论文

    近日,北京智能科技有限公司与北京大学集成电路学院孙广宇长聘副教授团队、上海交通大学张宸助理教授团队、香港科技大学谢源讲席教授团队、东南大学司鑫副教授团队及阿里巴巴达摩院合作的研究成果
    的头像 发表于 07-05 11:21 ?853次阅读

    理想汽车八论文入选ICCV 2025

    近日,ICCV 2025(国际计算机视觉大会)公布论文录用结果,理想汽车共有8论文入选,其中5
    的头像 发表于 07-03 13:58 ?380次阅读

    智能入围工信部算力强基揭榜行动

    近日,工业和信息化部(以下简称“工信部”)办公厅印发《关于公布算力强基揭榜行动入围名单的通知》,智能凭借 “高能效比边端侧大模型推理加速处理器” 成功入围。这是国家行业管理部门对
    的头像 发表于 06-26 18:00 ?559次阅读

    云知声论文入选自然语言处理ACL 2025

    结果正式公布。云知声在此次国际学术盛会中表现卓越,共有4论文被接收,其中包括2论文(Ma
    的头像 发表于 05-26 14:15 ?636次阅读
    云知声<b class='flag-5'>四</b><b class='flag-5'>篇</b><b class='flag-5'>论文</b><b class='flag-5'>入选</b>自然语言处理<b class='flag-5'>顶</b><b class='flag-5'>会</b>ACL 2025

    智能NPU适配通义千问Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列开源混合推理模型。用时不到1天,智能自研NPU迅速实现Qwen3 系列模型(Qwen3 0.6B-14B)在端边侧的高效部署。这一成果充分彰显了
    的头像 发表于 05-07 16:46 ?651次阅读

    智能入选中国移动AI能力联合舰队

    在第八届数字中国建设峰会期间,中国移动正式发布 “AI 能力联合舰队”。作为存算一体芯片领域的先锋,智能凭借颠覆式创新技术与强劲的算力支持能力,成功入选中国移动 “AI 能力联合舰
    的头像 发表于 05-06 17:14 ?608次阅读

    汇川技术大国际展会圆满收官

    近年来,汇川技术持续推动全球化发展战略,依托强大的技术研发与智能制造能力,积极布局海外市场,持续推出符合各地标准的创新产品。 近日,汇川技术携最新产品和解决方案再度亮相大国际展会——法国雷恩食品
    的头像 发表于 03-26 15:17 ?696次阅读

    智能5论文入选国际

    2025年伊始,智能在三大国际(AAAI、ICLR、DAC)中斩获佳绩,共有5
    的头像 发表于 02-19 14:02 ?819次阅读
    <b class='flag-5'>后</b><b class='flag-5'>摩</b><b class='flag-5'>智能</b>5<b class='flag-5'>篇</b><b class='flag-5'>论文</b><b class='flag-5'>入选</b><b class='flag-5'>国际</b><b class='flag-5'>顶</b><b class='flag-5'>会</b>

    智能接连斩获项大奖

    由清科创业与投资界共同发起的 2024 VENTURE50 评选结果重磅揭晓。智能凭借过硬的技术水准和创新产品,成功跻身 2024 投资界硬科技 VENTURE50 榜单,凸显了公司在半导体领域
    的头像 发表于 01-17 11:26 ?757次阅读

    经纬恒润功能安全AI 智能论文成功入选EMNLP 2024!

    近日,经纬恒润在智能体(AIAgent)领域再获佳绩,其论文《Aegis
    的头像 发表于 10-18 08:00 ?736次阅读
    经纬恒润功能安全AI <b class='flag-5'>智能</b>体<b class='flag-5'>论文</b>成功<b class='flag-5'>入选</b>EMNLP 2024!

    智能首款存算一体智驾芯片获评突出创新产品奖

    近日,2024年6月29日,由深圳市汽车电子行业协会主办的「第十三届国际汽车电子产业峰会暨2023年度汽车电子科学技术奖颁奖典礼」在深圳宝安隆重举行。智能首款存算一体智驾芯片——
    的头像 发表于 09-24 16:51 ?949次阅读

    精彩集锦|艾迈斯携第代LC/LF电专用内接件亮相中国

    2024年9月16日,为期4天的第22届中国国际摩托车博览圆满收官。作为低压大电流内接连接器参展商,艾迈斯在现场展示了自主研发的第代电专用内接连接器LC/LF系列新品,备受参观者
    的头像 发表于 09-18 11:04 ?852次阅读
    精彩集锦|艾迈斯携第<b class='flag-5'>四</b>代LC/LF电<b class='flag-5'>摩</b>专用内接件亮相中国<b class='flag-5'>摩</b>博<b class='flag-5'>会</b>