0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

IBM的新型模拟内存芯片能否证明AI操作的性能和能源效率呢?

半导体产业纵横 ? 来源:半导体产业纵横 ? 2023-12-18 10:09 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

IBM 的新型模拟内存芯片证明了 AI 操作的性能和能源效率都是可能的。

8 月,由 30 名 IBM 研究科学家组成的团队推出了一款全新芯片,旨在大幅提高耗电深度学习推理的能源效率,同时保持运算精度。这款名为 Hermes 的模拟内存芯片将数字电路与相变内存 (PCM) 相结合,因此神经网络计算可以在内存电路内进行。

这种处理器和内存配对消除了在内存和处理单元之间无休止地洗牌大量数据的需要,就像典型的人工智能加速器芯片中发生的那样。重要的是,分析表明该芯片与计算机视觉人工智能任务的数字芯片一样擅长,而且功耗却低得多。

率先推出该芯片的 IBM 欧洲研究院团队负责人 Abu Sebastian 及其同事 Manuel Le Gallo-Bourdeau 和 Vijay Narayanan 在最近的博客中明确表示,他们现在已经展示了实现快速、低功耗模拟AI芯片的架构愿景所需的许多构建模块。正如该团队的一位 IBM 科学家所言,“我们的芯片仍处于研究阶段,但我们现在将构建尽可能多的硬件,以准确了解它的功能并了解它的性能。”

耗电的人工智能

人工智能功耗问题的根源在于冯·诺依曼瓶颈,该瓶颈以现代计算机架构的先驱约翰·冯·诺依曼的名字命名。在这里,CPU 和内存是独立的实体,因此数据和计算必须不断地在两者之间来回穿梭。此过程会产生瓶颈,因为处理速度通常比检索数据或将数据写入内存的速度更快。

长期以来,设计人员一直在使用内存缓存、流水线和分层内存方案等解决方法来应对瓶颈。最近,芯片巨头专门开发了加速器芯片来承担新兴的人工智能处理任务。例如,英伟达已经从其 GPU 技术中取得了长足的进步。谷歌开发了张量处理单元;英特尔提供多种解决方案,包括可针对人工智能计算进行编程FPGA高通则为移动设备设计了人工智能加速器芯片。

尽管如此,人工智能的高能耗需求及其不断增加的操作数量,需要一种更节能的方法,而这正是模拟内存计算似乎将发挥关键作用的地方。

模拟内存芯片可以通过直接在内存内执行计算来规避冯·诺依曼瓶颈。模拟计算方案只需要几个电阻电容器,因此可以将它们重新定位到存储器中,消除了存储器和处理器之间的分离,从而提高了能源效率,远远超过了数字芯片。

IBM 在其最新的模拟人工智能芯片中采用了这种方法。该芯片采用 14 nm CMOS 设计和制造,包含 64 个计算核心,每个核心都有自己的 PCM 阵列以及用于额外神经网络操作(例如激活和累加)的轻型数字处理器。片上通信网络将核心连接在一起,芯片中心的进一步数字处理单元可以处理更苛刻的神经网络计算。

尽管使用 PCM 技术使其与众不同,但 IBM 并不是唯一一家致力于模拟 AI 芯片的公司。例如,英特尔实验室的研究人员一直在研究静态随机存取存储器和其他技术;美国初创公司Mythic专注于多级闪存;来自斯坦福大学、圣母大学、加州大学圣地亚哥分校和清华大学的研究人员开发了一种神经形态芯片,称为 NeuRRAM,它使用电阻式随机存取存储器。

PCM 是 IBM 的合理选择,因为该公司至少花了十年时间开发这些用于存储应用的材料,包括多级 PCM 芯片。PCM 本身是一种非易失性随机存取存储器,加热时会在低导电非晶相和高导电晶相之间切换。基于这些材料的设备可以利用相变,将电导的变化编码为突触权重,然后用于计算操作。

正如 IBM 的最新结果所示,这种连续的值(而不仅仅是数字设备中的 1 或 0)非常适合深度神经网络操作。

当与基于类似技术的其他芯片(包括 NeuRRAM 以及 Mythic 和 TSMC 开发的芯片)进行基准测试时,IBM 的技术可以执行矩阵向量乘法(这是人工智能运算的基础),速度至少提高 15 倍,并且能效相当。值得注意的是,在使用人工智能训练彩色图像数据库 CIFAR-10 进行测试时,该芯片还被证明在图像识别方面比其他芯片更准确,挑战了模拟内存计算虽然节能但容易出现计算错误的观念。

“相变存储器的优势在于它足够稳定,可以进行一些相对准确的计算,”IBM 科学家说。“我们开发了精确编程的技术,并且还详细描述了错误的特征。我们的精度对于神经网络来说已经足够了。”

英特尔实验室研究科学家 Hechen Wang 也多年来一直致力于模拟内存计算,他同意该方法可以实现卓越的能源效率。“研究人员大约五年前开始研究模拟内存,现在 IBM、imec、GlobalFoundries、台积电、三星和其他公司和学术团体开始研究这项技术,”他说。“如果我们想要进行非常高效的AI计算,我们需要将处理单元放入内存阵列,甚至内存单元中。”

Hechen Wang说,英特尔实验室正在寻求内存计算的多种途径,并探索一系列内存技术。“对于哪种记忆才是正确的方向,我们还没有得出结论。”

尽管如此, Hechen Wang相信 IBM 和其他公司的最新模拟内存开发正在对这个“热门”领域产生积极影响。“IBM 的研究成果已经发表在 Nature 论文上,说实话,我从来没想过会发生这种事,”他说。“很多人阅读了这些出版物,我希望这些结果能够开阔他们的视野,并吸引更多人对该领域的关注。”

下一步

自从在《自然电子》杂志上发表研究结果以来,IBM 欧洲研究人员明确表示,他们的工作证明模拟 AI 可以提供与传统数字加速器相媲美的必要计算精度,而且能效更高。随着基于人工智能的技术的兴起,节能且准确的推理硬件变得至关重要,研究人员的目标是创建能够执行端到端推理操作的模拟内存芯片。

与此同时,IBM 欧洲研究院表示,它打算利用 PCM 设备可达到的高突触密度,构建更大的芯片,能够比竞争对手的数字加速器运行整个网络操作。

IBM 科学家表示:“一旦我们真正展示了这项技术的前景,并且更多的人想要投资(该领域),那么我们就可以组建由数百名研究人员组成的团队来从事这项工作,这样我们就可以将芯片投入生产模式。”







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19937

    浏览量

    236476
  • PCM
    PCM
    +关注

    关注

    1

    文章

    202

    浏览量

    54426
  • 人工智能
    +关注

    关注

    1809

    文章

    49164

    浏览量

    250744
  • 计算机视觉
    +关注

    关注

    9

    文章

    1710

    浏览量

    46892
  • AI芯片
    +关注

    关注

    17

    文章

    1990

    浏览量

    35997

原文标题:IBM 的AI芯片能否重塑深度学习推理?

文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    IBM Spectrum LSF如何助力半导体企业应对AI时代的高性能芯片需求

    上万个作业,可能会瞬间挤爆计算资源。那如何把成千上万个作业有序的调度到大规模的集群中?这时候,就得请出 HPC(高性能计算)调度界的“大宗师”—— IBM Spectrum LSF!
    的头像 发表于 05-27 15:18 ?498次阅读

    IBM推出新一代大型主机IBM z17

    今天,IBM(纽约证券交易所:IBM)宣布推出新一代大型主机 IBM z17。作为 IBM Z 主机系列的最新旗舰产品,IBM z17 搭载
    的头像 发表于 04-10 14:45 ?544次阅读

    Nordic nRF54 系列芯片:开启 AI 与物联网新时代?

    在科技飞速发展的今天,芯片技术的创新始终是推动行业进步的关键力量。Nordic 公司的 nRF54 系列芯片,正以其卓越的性能和独特的设计,为 AI 机器学习和物联网应用带来前所未有的
    发表于 04-01 00:18

    IBM携手英伟达AI数据平台推动企业级AI创新

    近日,IBM(纽约证券交易所:IBM)宣布与英伟达(纳斯达克股票代码:NVDA)开展全新合作,双方将基于英伟达 AI 数据平台参考架构(reference architecture)进行产品集成
    发表于 03-24 19:20 ?264次阅读

    AI开发板】正点原子K230D BOX开发板来了!一款性能强悍且小巧便携的AI开发板!

    AI开发板】正点原子K230D BOX开发板来了!一款性能强悍且小巧便携的AI开发板! 正点原子K230D BOX是一款性能强悍且小巧便携的A
    发表于 02-18 16:56

    IBM CEO:DeepSeek将加速AI技术采用

    在迪拜举行的世界政府峰会上,IBM首席执行官Arvind Krishna发表了对人工智能(AI)技术发展的重要见解。他指出,随着DeepSeek等新兴企业的崛起,开发AI模型的成本估算将迎来重大
    的头像 发表于 02-12 11:40 ?594次阅读

    德明利DDR5内存助力AI PC时代存储性能与市场增长

    2024年作为AIPC元年伴随异构算力(CPU+GPU+NPU)需求高涨及新处理器平台推出DDR5内存以高速率、大容量低延迟与高带宽有效满足高性能算力要求加速本地AI大模型运行效率推动
    的头像 发表于 01-21 16:34 ?1596次阅读
    德明利DDR5<b class='flag-5'>内存</b>助力<b class='flag-5'>AI</b> PC时代存储<b class='flag-5'>性能</b>与市场增长

    IBM光学技术新进展:光电共封装提升AI模型效率

    近日,据最新报道,IBM在光学技术领域取得了新突破,这一进展有望大幅提升数据中心训练和运行生成式AI模型的效率。 为了实现这一目标,IBM推出了新一代光电共封装(CPO)工艺。这一创新
    的头像 发表于 12-18 14:26 ?987次阅读

    虚拟内存对计算机性能的影响

    ,它允许计算机使用硬盘空间来模拟物理内存。当物理内存(RAM)不足以容纳当前所有活动的程序和数据时,操作系统会将部分数据从RAM移动到硬盘上的一个特殊区域,称为交换空间(swap sp
    的头像 发表于 12-04 09:17 ?3634次阅读

    英伟达加速认证三星AI内存芯片

    近日,英伟达公司正在积极推进对三星AI内存芯片的认证工作。据英伟达CEO透露,他们正在不遗余力地加速这一进程,旨在尽快将三星的内存解决方案融入其产品中。 此次认证工作的焦点在于三星的H
    的头像 发表于 11-25 14:34 ?706次阅读

    DDR内存频率对性能的影响

    DDR内存频率对性能的影响主要体现在以下几个方面: 一、数据传输速度 内存条的频率(MHz)代表每秒的传输速度,即内存每秒能够执行操作的次数
    的头像 发表于 11-20 14:25 ?4034次阅读

    IBM推出高性能AI模型Granite 3.0

    在近日举行的IBM年度TechXchange大会上,IBM正式推出了其最先进的AI模型家族——Granite 3.0。这款旗舰级语言模型代表了IBM
    的头像 发表于 10-28 17:39 ?856次阅读

    AI for Science:人工智能驱动科学创新》第6章人AI能源科学读后感

    不仅提高了能源的生产效率和管理水平,还为未来的可持续发展提供了有力保障。随着技术的不断进步和应用场景的不断拓展,人工智能将在能源科学领域发挥更加重要的作用。 总结 《AI for Sc
    发表于 10-14 09:27

    IBM Cloud将部署英特尔Gaudi 3 AI芯片

    近日,科技巨头IBM与英特尔宣布了一项重大合作计划,双方将共同在IBM Cloud平台上部署英特尔最新的Gaudi 3 AI芯片,预计该服务将于2025年初正式上线。此次合作标志着两家
    的头像 发表于 09-03 15:52 ?696次阅读

    3D DRAM内嵌AI芯片AI计算性能暴增

    当前高带宽内存(HBM)中的DRAM芯片,通过在3D DRAM中实现AI处理来解决数据总线问题。 ? 通常来说,当前的 AI芯片架构将数据存
    的头像 发表于 08-16 00:08 ?3874次阅读
    3D DRAM内嵌<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>,<b class='flag-5'>AI</b>计算<b class='flag-5'>性能</b>暴增