0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

阿里全新AI推理方法入选ICML 2020,可减少AI对计算和内存资源的消耗

牵手一起梦 ? 来源:C114通信网 ? 作者:佚名 ? 2020-06-19 15:52 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近日,人工智能国际顶会ICML 2020公布了论文收录结果,阿里巴巴7篇论文入选,是入选论文数量最多的中国科技公司。ICML是机器学习领域全球最具影响力的学术会议之一,今年接受率仅为21.8%。

根据ICML官方显示,阿里7篇论文涵盖在图像识别、自然语言处理、搜索推荐等领域的研究成果,其中一篇《Boosting Deep Neural Network Efficiency with Dual-Module Inference》,提出了一种全新的AI推理方法,可大幅减少AI对计算和内存资源的消耗,能将推理速度提升3倍。

近年来AI模型变得越来越复杂化,尤其是类似语言AI这类复杂模型,给计算、内存资源带来了新的挑战。目前,业界通用的解决方法是采用更先进的计算性能来运行AI任务,例如采用GPUFPGA或者NPU等异构计算,但该方法并没有从根源上解决问题。

阿里巴巴达摩院设计出了一种“AI双脑思考”的方法,能让大型神经网络像人类一样学会“快思考”与“慢思考”,从而进行高效且准确的推理过程。

该方法被称为“双模推理”, 即将一个复杂任务拆分成两个任务,例如在复杂AI推理任务过程中,可以先以很小的资源运行“小网络”,同时分析哪些网络的区域较为敏感,然后只对敏感区域在“大网络”中运行计算。

达摩院的科学家从理论上证明了双模推理的可行性,且在CPU上实现了该方法。实际效果显示,该方法能在保证模型精度的基础上,在语言模型上减小40%的访存,达到1.54倍-1.75倍的性能提升,同时可以在仅损耗0.5%精度基础上,提升3倍的推理速度。

近年来,阿里在AI领域迎来了基础研究与产业应用成果双爆发的阶段。三年前,阿里巴巴成立了内部研究机构达摩院,深入AI研究前沿。据了解,阿里AI已在国际顶级技术赛事上获得了近60项世界第一,500多篇论文入选国际顶会。同时,阿里AI落地了多项重大研究成果,全面赋能各行各业。达摩院医疗AI团队疫情期间研发的AI诊断技术,已在全球近600家医院落地,完成50余万例临床诊断。

责任编辑:gt

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    88

    文章

    35758

    浏览量

    282429
  • 阿里巴巴
    +关注

    关注

    7

    文章

    1639

    浏览量

    48331
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI推理的存储,看好SRAM?

    电子发烧友网报道(文/黄晶晶)近几年,生成式AI引领行业变革,AI训练率先崛起,带动高带宽内存HBM一飞冲天。但我们知道AI推理的广泛应用才
    的头像 发表于 03-03 08:51 ?1831次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存储,看好SRAM?

    今日看点丨华为发布AI推理创新技术UCM;比亚迪汽车出口暴增130%

    缓存加速算法工具,分级管理推理过程中产生的KV Cache记忆数据,扩大推理上下文窗口,实现高吞吐、低时延的推理体验,降低每Token推理
    发表于 08-13 09:45 ?1549次阅读

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    资源分配的最优策略建议,减少资源浪费,提升整体网络效率。 客户实证:AI推理引擎的精准力量某大型政务云平台遭遇核心业务运行缓慢问题,初步
    发表于 07-16 15:29

    大家都在用什么AI软件?有没有好用的免费的AI软件推荐一下?

    大家都在用什么AI软件?有没有好用的免费的AI软件推荐一下?直接发个安装包,谢谢。比如deepseek、Chatgpt、豆包、阿里AI、百度AI
    发表于 07-09 18:30

    大模型推理显存和计算量估计方法研究

    方法。 一、引言 大模型推理是指在已知输入数据的情况下,通过深度学习模型进行预测或分类的过程。然而,大模型的推理过程对显存和计算资源的需求较
    发表于 07-03 19:43

    Nordic收购 Neuton.AI 关于产品技术的分析

    生成比传统框架(如 TensorFlow、PyTorch 等)小 10 倍的模型,模型体积低至个位数 KB,并且推理速度更快、功耗更低。此次收购将 Neuton 的自动化 TinyML 平台
    发表于 06-28 14:18

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    内存带宽占用量大幅度降低50%,让端侧AI推理更聪明、响应更迅速。 天玑AI开发套件2.0还首次引入基于NPU的端侧LoRA训练,开发者在天玑NPU上进行运算训练,相比基于CPU的
    发表于 04-13 19:52

    曙光存储全新升级AI存储方案

    近日,曙光存储全新升级AI存储方案,秉持“AI加速”理念,面向AI训练、AI推理
    的头像 发表于 03-31 11:27 ?569次阅读

    适用于数据中心和AI时代的800G网络

    数据中心依赖数千甚至上万个GPU集群进行高性能计算,对带宽、延迟和数据交换效率提出极高要求。 AI云:以生成式AI为核心的云平台,为多租户环境提供推理服务。这类数据中心要求网络具
    发表于 03-25 17:35

    Banana Pi 发布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 计算与嵌入式开发

    RZ/V2N——近期在嵌入式世界2025上新发布,为 AI 计算、嵌入式系统及工自动化提供强大支持。这款全新计算平台旨在满足开发者和企业用户对高性能、低功耗和灵活扩展的需求。 [](
    发表于 03-19 17:54

    当我问DeepSeek AI爆发时代的FPGA是否重要?答案是......

    ,以减少数据传输到云端的需求,降低延迟和带宽消耗。FPGA在边缘计算中表现优异,能够为嵌入式设备提供高效的AI推理能力。 ? 实时应用:在自
    发表于 02-19 13:55

    AI云端计算资源的多维度优势

    AI云端计算资源,作为AI技术与云计算深度融合的产物,在成本效益、性能优化、数据安全、灵活扩展以及创新加速等多个维度都具有显著优势。下面,
    的头像 发表于 01-07 11:11 ?559次阅读

    阿里云开源推理大模型QwQ

    近日,阿里云通义团队宣布推出全新AI推理模型QwQ-32B-Preview,并同步实现了开源。这一举措标志着阿里云在
    的头像 发表于 11-29 11:30 ?1258次阅读

    AI云端计算资源有哪些类型

    AI云端计算资源涵盖了从基础设施到软件服务的多个层面,为AI模型的训练、推理和部署提供了强大的支持。下面,
    的头像 发表于 11-15 09:39 ?626次阅读

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    计算的结合 我深刻体会到高性能计算(HPC)在AI for Science中的重要性。传统的科学计算往往面临计算量大、
    发表于 10-14 09:16