0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

研究人员开发了一种新颖的机器学习管道

倩倩 ? 来源:量子认知 ? 2020-04-15 16:42 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

最近,麻省理工学院的研究人员发明了一种机器学习工具,该工具可以预测计算机芯片执行来自各种应用程序的代码的运行速度。

为了使代码尽可能快地运行,开发人员和编译器将编程语言转换为机器可读代码的程序,通常使用通过模拟给定芯片体系结构运行代码的性能模型。

编译器使用该信息来自动优化代码,而开发人员使用该信息来解决将运行该代码的微处理器的性能瓶颈。但是,机器代码的性能模型是由相对较少的专家小组手写的,并且未经适当验证。结果,模拟的性能测量通常会偏离实际结果。

研究人员开发了一种新颖的机器学习管道,该管道可自动执行此过程,从而使其变得更轻松、更快、更准确。这项研究成果在国际机器学习大会上发表。

研究人员通过一种特殊的神经网络模型,它以“基本块”(计算指令的基本摘要)形式训练标记的数据,以自动预测其持续时间使用给定的芯片执行以前看不见的基本块。结果表明,这种神经网络模型的性能要比传统的手动调整模型精确得多。

这个基准测试套件涉及多个领域,包括机器学习、编译器、密码学和可用于验证性能模型的图形。研究人员将超过30万已分析的块合并到一个开源数据集中。在评估过程中,这种神经网络模型预测了英特尔芯片运行代码的速度要比英特尔自身构建的性能模型还要好。

最终,开发人员和编译器可以使用该工具来生成代码,这些代码可以在越来越多的多样化“黑匣子”芯片设计上更快、更高效地运行。现代计算机处理器不透明,极其复杂且难以理解。编写对这些处理器执行得尽可能快的计算机代码也极具挑战性,该工具是朝着对这些芯片的性能进行完全建模以提高效率的重要一步。

最近,该团队又提出了一种自动生成编译器优化的新技术。具体来说,它们会自动生成一种算法,该算法将某些代码转换为向量,可用于并行计算。 这种算法优于LLVM编译器中使用的手工矢量化算法。

LLVM是业界常用的编译器,一个自由软件项目,它是一种编译器基础设施,以C++写成,包含一系列模块化的编译器组件和工具链,用来开发编译器前端和后端。它是为了任意一种编程语言而写成的程序,利用虚拟技术创造出编译时期、链接时期、运行时期以及“闲置时期”的最优化。它最早以C/C++为实现对象,而当前它已支持许多种程序语言。

研究人员说,手工设计性能模型可能是“一门妖术”。英特尔提供了超过3000页的详尽文档,描述了其芯片的体系结构。但是目前只有一小部分专家将构建性能模型,以模拟这些架构上代码的执行。

研究人员指出:“英特尔的文档既没有错误,也没有完整,并且英特尔会省略某些事情,因为它是专有的。” “但是,当使用数据时,不需要了解文档。如果有隐藏的内容,可以直接从数据中学习。”

为此,研究人员记录了给定微处理器用于计算基本块指令的平均周期数,基本上是启动,执行和关闭的顺序,而无需人工干预。使过程自动化可以快速分析成千上万个块。

在培训学习中,这种神经网络模型分析了数百万个自动剖析的基本块,以准确了解不同的芯片体系结构将如何执行计算。重要的是,该模型将原始文本作为输入,不需要手动向输入数据添加功能。在测试中,可以将以前看不见的基本块和给定的芯片提供给模型,模型将生成一个数字,指示芯片将以多快的速度执行该代码。

研究人员发现,该模型的准确性降低了错误率,这意味着预测速度与实际速度之间的差异比传统的手工模型降低了50%。此外,他们表明该模型的错误率为10%,而Intel性能预测模型在多个不同领域的各种基本块上的错误率为20%。

该工具现在使人们可以更轻松地快速了解任何新芯片架构的性能速度。例如,特定领域的体系结构,例如Google专门用于神经网络的新型Tensor处理单元,目前正在构建中,但并未得到广泛理解。 如果要在某种新架构上训练模型,只需从该架构收集更多数据,通过探查器运行它,使用该信息来训练模型,从而就有了一个预测性能的模型。

接下来,研究人员将通过这样的神经网络模型研究使人工智能模型可解释的方法。人工智能机器学习在很大程度上是一个黑匣子,因此尚不清楚为什么特定的模型会做出某种预测。这样的模型指示一个处理器要执行一个基本块需要10个周期,从而有可能设法找出其原因。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编程语言
    +关注

    关注

    10

    文章

    1957

    浏览量

    36815
  • 编译器
    +关注

    关注

    1

    文章

    1663

    浏览量

    50348
  • 机器学习
    +关注

    关注

    66

    文章

    8510

    浏览量

    134853
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    无刷直流电机双闭环串级控制系统仿真研究

    Madlab进行BLDC建模仿真的方法,并且也提出了很多的建模仿真方案。例如有研究人员提出采用节点电流法对电机控制系统进行分析,通过列写m函数,建立BLDC控制系统真模型,这种方法实质上是一种整体建模
    发表于 07-07 18:36

    轮式移动机器人电机驱动系统的研究开发

    系统,开发了套二轮差速驱动转向移动机器人电机驱动系统,完成了系统各部件的整体装配和调试。试验结果表明,该设计方案可行、系统运行稳定可靠、成本低廉、所用元件易于购置,具有较好的实用的价值和应用前景。 纯
    发表于 06-11 14:30

    研究人员开发出基于NVIDIA技术的AI模型用于检测疟疾

    疟疾曾度在委内瑞拉销声匿迹,但如今正卷土重来。研究人员已经训练出个模型来帮助检测这种传染病。
    的头像 发表于 04-25 09:58 ?447次阅读

    NanoEdge AI Studio 面向STM32开发人员机器学习(ML)技术

    NanoEdge? AI Studio*(NanoEdgeAIStudio)是一种新型机器学习(ML)技术,可以让终端用户轻松享有真正的创新成果。只需几步,开发人员便可基于最少量的数据
    的头像 发表于 04-22 11:09 ?633次阅读
    NanoEdge AI Studio 面向STM32<b class='flag-5'>开发人员</b><b class='flag-5'>机器</b><b class='flag-5'>学习</b>(ML)技术

    通过电光腔测量不可见光波

    电光腔 (EOC) 的实验原理,在法布里-珀罗腔(金镜)内进行非线性相互作用期间,用可见探针脉冲(绿色)测量太赫兹光场(红色)的多重回波。 研究人员开发了一种新颖的实验平台,用于测量被
    的头像 发表于 03-04 06:36 ?346次阅读
    通过电光腔测量不可见光波

    嵌入式机器学习的应用特性与软件开发环境

    设备和智能传感器)上,这些设备通常具有有限的计算能力、存储空间和功耗。本文将您介绍嵌入式机器学习的应用特性,以及常见的机器学习开发软件与
    的头像 发表于 01-25 17:05 ?704次阅读
    嵌入式<b class='flag-5'>机器</b><b class='flag-5'>学习</b>的应用特性与软件<b class='flag-5'>开发</b>环境

    智能电缆管道在线监测机器人详细解析科普

    智能电缆管道在线监测机器人详细解析科普 、概述 智能电缆管道在线监测机器人是一种集成了现代电子
    的头像 发表于 01-15 09:28 ?505次阅读

    传统机器学习方法和应用指导

    用于开发生物学数据的机器学习方法。尽管深度学习般指神经网络算法)是个强大的工具,目前也非常
    的头像 发表于 12-30 09:16 ?1254次阅读
    传统<b class='flag-5'>机器</b><b class='flag-5'>学习</b>方法和应用指导

    【「具身智能机器人系统」阅读体验】+数据在具身人工智能中的价值

    嵌入式人工智能(EAI)将人工智能集成到机器人等物理实体中,使它们能够感知、学习环境并与之动态交互。这种能力使此类机器人能够在人类社会中有效地提供商品及服务。 数据是一种货币化工具 数
    发表于 12-24 00:33

    【「具身智能机器人系统」阅读体验】+初品的体验

    《具身智能机器人系统》 书由甘鸣、俞波、万梓燊、刘少山老师共同编写,其封面如图1所示。 本书共由5部分组成,其结构和内容如图2所示。 该书可作为高校和科研机构的教材,为学生和研究人员
    发表于 12-20 19:17

    研究人员利用激光束开创量子计算新局面

    演示设备 威特沃特斯兰德大学(Wits)的物理学家利用激光束和日常显示技术开发出了一种创新的计算系统,标志着在寻求更强大的量子计算解决方案方面取得了重大飞跃。 该大学结构光实验室的研究人员取得的这
    的头像 发表于 12-18 06:24 ?409次阅读
    <b class='flag-5'>研究人员</b>利用激光束开创量子计算新局面

    一种信息引导的量化后LLM微调新算法IR-QLoRA

    进行量化+LoRA的路线为例,有研究表明,现有方法会导致量化的LLM严重退化,甚至无法从LoRA微调中受益。 为了解决这问题,来自苏黎世联邦理工学院、北京航空航天大学和字节跳动的研究人员,最新提出了
    的头像 发表于 11-19 17:16 ?880次阅读
    <b class='flag-5'>一种</b>信息引导的量化后LLM微调新算法IR-QLoRA

    爱普生开发了一种烤箱控制的晶体振荡器,其功耗比传统OCXOs1低56%

    爱普生开发了一种烤箱控制的晶体振荡器,其功耗比传统OCXOs1低56%-该振荡器小巧且节能,是下代通信基础设施中参考信号源应用的理想选择-精工爱普生公司(TSE:6724,“爱普生”)开发了
    的头像 发表于 10-29 11:28 ?641次阅读
    爱普生<b class='flag-5'>开发了</b><b class='flag-5'>一种</b>烤箱控制的晶体振荡器,其功耗比传统OCXOs1低56%

    BitEnergy AI公司开发一种新AI处理方法

    BitEnergy AI公司,家专注于人工智能(AI)推理技术的企业,其工程师团队创新性地开发了一种名为线性复杂度乘法(L-Mul)的AI处理方法。该方法的核心在于,它用整数加法替代了传统的浮点乘法(FPM),实现了算法上的简
    的头像 发表于 10-22 15:15 ?872次阅读

    NVIDIA与学术研究人员联合开发手术机器

    利用 NVIDIA Isaac Sim 和 NVIDIA Omniverse 开发的 ORBIT-Surgical 正在 ICRA 机器人大会上展出。
    的头像 发表于 10-10 10:00 ?948次阅读