0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

何为异构芯片 协同异构AI芯片的挑战

AI芯天下 ? 来源:晶上联盟 ? 2024-02-25 13:53 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

进入大模型时代,全社会算力需求被推高到了前所未有的程度。

由于大模型AI对于全社会的重要性,以及各行各业加快建设智算中心,也引发了全社会学习异构AI芯片的热潮。

异构AI芯片出现的现象

2024年1月,微软联合创始人比尔·盖茨与OpenAI首席执行官山姆·奥特曼进行了一次对话,奥特曼在对话中表示人工智能将引发人类历史上“最快”的一次技术革命,人类可能还没有准备好以多快的速度适应这种变革。

奥特曼预计,这项技术将迅速发展,使系统的计算能力达到GPT-4的10万倍或100万倍。

简单来说,用于人工智能计算的英伟达GPU芯片远远不够用了。

而为应对GPU全球供应短缺问题,以及美国对GPU的出口限制问题,当然更重要的是在AI场景下降低成本,于是市场上涌现了各类异构AI芯片。

何为异构芯片

异构芯片即结合两种或多种不同类型的处理器控制器架构的芯片。

异构芯片可以是CPU+FPGA,CPU+GPU也可以是CPU+AI,也可以是CPU+动态可重构等不同架构,这些架构都是利用一种架构的优势来弥补另外一种架构的不足,以适应用户多种用途的应用需求。

Intel的CPU+Altera的FPGA或者AMD的Instinct MI300和英伟达的Grace Hopper超级芯片也是采用“CPU+GPU”的异构形式。

CPU+GPU架构的优势

CPU和GPU协同工作时,CPU包含几个专为串行处理而优化的核心,GPU则由数以千计更小、更节能的核心组成,这些核心专为提供强劲的并行运算性能而设计。

程序的串行部分在CPU上运行,而并行部分则在GPU上运行。

GPU目前已经发展到成熟阶段,可轻松执行现实生活中的各种应用程序,而且程序运行速度已远远超过使用多核系统时的情形。

因此,CPU和GPU的结合刚好可以解决深度学习模型训练在CPU上耗时长的问题,提升深度学习模型的训练效率。

CPU与GPU的应用场景也不断拓宽

随着CPU与GPU的结合,其相较于单独CPU与GPU的应用场景也不断拓宽。

CPU+GPU架构适用于处理高性能计算。伴随着高性能计算类应用的发展,驱动算力需求不断攀升,但目前单一计算类型和架构的处理器已经无法处理更复杂、更多样的数据。

数据中心如何在增强算力和性能的同时,具备应对多类型任务的处理能力,成为全球性的技术难题。

CPU+GPU的异构并行计算架构作为高性能计算的一种主流解决方案,受到广泛关注。

CPU+GPU架构适用于处理数据中心产生的海量数据。数据爆炸时代来临,使用单一架构来处理数据的时代已经过去。

比如:个人互联网用户每天产生约1GB数据,智能汽车每天约50GB,智能医院每天约3TB数据,智慧城市每天约50PB数据。

数据的数量和多样性以及数据处理的地点、时间和方式也在迅速变化。无论工作任务是在边缘还是在云中,不管是人工智能工作任务还是存储工作任务,都需要有正确的架构和软件来充分利用这些特点。

CPU+GPU架构可以共享内存空间,消除冗余内存副本来改善问题。

在此前的技术中,虽然GPU和CPU已整合到同一个芯片上,但是芯片在运算时要定位内存的位置仍然得经过繁杂的步骤,这是因为CPU和GPU的内存池仍然是独立运作。

为了解决两者内存池独立的运算问题,当CPU程式需要在GPU上进行部分运算时,CPU都必须从CPU的内存上复制所有的资料到GPU的内存上,而当GPU上的运算完成时,这些资料还得再复制回到CPU内存上。

然而,将CPU与GPU放入同一架构,就能够消除冗余内存副本来改善问题,处理器不再需要将数据复制到自己的专用内存池来访问/更改该数据。

统一内存池还意味着不需要第二个内存芯片池,即连接到CPU的DRAM

因此,通过CPU+GPU异构并行计算架构组成的服务器,正成为服务器市场中的一匹黑马。现在已有多家芯片厂商开始跟进。

协同异构AI芯片的挑战

在实际建设智算中心的时候,到底在GPU、FPGA、DSA和ASIC之间选择哪种算力和算力组合,这是一个很大的问题。

GPU虽然能够应对大模型计算需求,但一卡难求以及限制性能等问题严重;

DSA灵活性有限,硬件和软件架构呈现碎片化;

FPGA的功耗和成本较高,主要用于原型验证,难以在实际场景中大规模落地;

ASIC功能固化,缺乏足够的灵活性,而且ASIC芯片的研发周期长、成本高和风险大等,都为大规模和长期采用带来了挑战。

另外,多异构计算的硬件层次高集成度和系统软件层次多协同、通用编程模型和开发环境等,都是行业需要解决的问题,多异构共存的异构计算孤岛现象越来越突显。

特别是不同的异构计算编程框架,要求开发者掌握多种编程模式和语言,使得代码移植面临巨大挑战。

寻找一个真正统一、能满足所有硬件和应用需求的编程方法,仍是当下计算领域的热门研究课题。

结尾:可发展产业机遇

大模型AI的出现,为重构数据中心带来了机遇。由于大模型AI天然带来海量的数据中心内部通信而不是对外通信,在将数据中心重构为智算中心的时候,就带来了“一个数据中心即为一台计算机”的设计理念,这就是以系统设计为中心的原则。

以系统设计为中心,即考虑一个数据中心上承载大模型训练等逻辑上单一的“大应用”,也就是数据中心级的业务系统。

因此在智算中心的设计上要超越硬件和软件的传统界限,将整个数据中心作为一个协同工作的系统。

有了以数据中心为一台计算机的设计理念和角度,就能找到有效的软硬件协同的异构融合计算之路。

内容及图片来源于:晶上联盟



审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19961

    浏览量

    237581
  • 控制器
    +关注

    关注

    114

    文章

    17261

    浏览量

    185518
  • AI芯片
    +关注

    关注

    17

    文章

    1994

    浏览量

    36062
  • 异构芯片
    +关注

    关注

    0

    文章

    9

    浏览量

    2350

原文标题:趋势丨2024年再怎么重视“异构芯片”都不为过

文章出处:【微信号:World_2078,微信公众号:AI芯天下】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    商汤大装置发布基于DeepLink的异构混合调度方案

    调度复杂、跨域训练稳定性不足等行业挑战,全面提升异构集群的协同效率与运行可靠性,加速国产AI算力从“可用”迈向“好用”,为大模型训练提供强大而高效的支撑能力。
    的头像 发表于 08-05 10:01 ?296次阅读

    润和软件发布StackRUNS异构分布式推理框架

    当下,AI模型规模持续膨胀、多模态应用场景日益复杂,企业正面临异构算力资源碎片化带来的严峻挑战。为应对行业痛点,江苏润和软件股份有限公司(以下简称“润和软件”)正式发布自主研发的StackRUNS
    的头像 发表于 06-13 09:10 ?615次阅读
    润和软件发布StackRUNS<b class='flag-5'>异构</b>分布式推理框架

    能效提升3倍!异构计算架构让AI跑得更快更省电

    。它是应对复杂计算需求的关键技术之一。 ? 异构计算架构的核心优势 ? 异构计算架构的核心要素主要包括多种计算单元结合、任务分配机制和协同工作机制。多种计算单元结合:结合不同类型的处理单元,如CPU、GPU、TPU、FPGA等,
    的头像 发表于 05-25 01:55 ?2964次阅读

    RAKsmart智能算力架构:异构计算+低时延网络驱动企业AI训练范式升级

    AI大模型参数量突破万亿、多模态应用爆发的今天,企业AI训练正面临算力效率与成本的双重挑战。RAKsmart推出的智能算力架构,以异构计算资源池化与超低时延网络为核心,重构
    的头像 发表于 04-17 09:29 ?398次阅读

    上扬软件助力12英寸异构堆叠芯片企业建设MES系统项目

    近日,上扬软件携手国内某12英寸异构堆叠芯片企业,正式启动MES(制造执行系统)、EAP(设备自动化系统)和RMS(配方管理系统)系统的建设。该企业作为行业内的重要参与者,专注于异构堆叠芯片
    的头像 发表于 03-26 17:01 ?727次阅读

    AI SoC#炬芯科技端侧 AI 处理器芯片:三核异构,存内计算

    炬芯科技端侧 AI 处理器芯片产品主要为CPU+DSP双核异构高算力单芯片解决方案,现在主推的端侧 AI 处理器产品
    的头像 发表于 03-24 14:27 ?1558次阅读
    <b class='flag-5'>AI</b> SoC#炬芯科技端侧 <b class='flag-5'>AI</b> 处理器<b class='flag-5'>芯片</b>:三核<b class='flag-5'>异构</b>,存内计算

    GS1-N2:双核心异构 AI 硬盘录像机

    Firefly推出双核心异构AI硬盘录像机GS1-N2,采用双处理器架构,分别负责视频解码和AI处理,优化资源分配,增强AI处理能力,支持最高8K视频解码。8个千兆网接口,可接驳符合O
    的头像 发表于 03-21 16:52 ?681次阅读
    GS1-N2:双核心<b class='flag-5'>异构</b> <b class='flag-5'>AI</b> 硬盘录像机

    NV-C2P10:双核心异构 AI 硬盘录像机

    Firefly推出双核心异构AI硬盘录像机——NV-C2P10,采用双处理器架构,分别负责视频解码和AI处理,优化资源分配,增强AI处理能力,支持最高8K视频解码;具备8个千兆网接口,
    的头像 发表于 03-19 16:32 ?609次阅读
    NV-C2P10:双核心<b class='flag-5'>异构</b> <b class='flag-5'>AI</b> 硬盘录像机

    在采用异构模式推理时,如何检查每层使用的设备是什么?

    异构模式推理时,无法检查每层使用的设备是什么
    发表于 03-06 06:49

    异构计算的概念、核心、优势、挑战及考虑因素

    异构计算就像是一支由“多才多艺”处理器组成的团队,每个成员都有自己的强项和责任。 ? 什么是异构计算????? “异构计算”指的是在同一个计算平台中,部署多种不同类型的处理单元(比如 CPU、GPU
    的头像 发表于 01-13 11:43 ?1170次阅读

    Cadence如何应对AI芯片设计挑战

    生成式 AI 引领智能革命成为产业升级的核心动力并点燃了“百模大战”。多样化的大模型应用激增对高性能AI 芯片的需求,促使行业在摩尔定律放缓的背景下,加速推进 2.5D、3D 及 3.5D
    的头像 发表于 12-14 15:27 ?1410次阅读

    人工智能应用中的异构集成技术

    型的芯片(chiplet)组合到统一封装中,提供更好的性能、更低的互连延迟和更高的能源效率,这些对于数据密集型人工智能工作负载都非常重要[1]。 现有异构集成技术 图1展示了异构集成技术的全面发展概况,从2D到3D架构的演进,包
    的头像 发表于 12-10 10:21 ?1033次阅读
    人工智能应用中的<b class='flag-5'>异构</b>集成技术

    【一文看懂】什么是异构计算?

    随着人工智能、深度学习、大数据处理等技术的快速发展,计算需求的复杂性不断提升。传统的单一计算架构已难以满足高效处理复杂任务的要求,异构计算因此应运而生,成为现代计算领域的一个重要方向。那么
    的头像 发表于 12-04 01:06 ?2975次阅读
    【一文看懂】什么是<b class='flag-5'>异构</b>计算?

    3D异构集成重塑芯片格局

    本文由半导体产业纵横(ID:ICVIEWS)综合AI的激增推动了对先进半导体芯片的需求,推动了芯片设计和制造的界限。AI的快速发展迎来了半导体比以往任何时候都更加重要的时代。从训练到部
    的头像 发表于 11-22 01:08 ?702次阅读
    3D<b class='flag-5'>异构</b>集成重塑<b class='flag-5'>芯片</b>格局

    异构集成封装类型详解

    随着摩尔定律的放缓,半导体行业越来越多地采用芯片设计和异构集成封装来继续推动性能的提高。这种方法是将大型硅芯片分割成多个较小的芯片,分别进行设计、制造和优化,然后再集成到单个封装中。
    的头像 发表于 11-05 11:00 ?1586次阅读
    <b class='flag-5'>异构</b>集成封装类型详解