0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

为AI推理打造高达24Gb/s的GDDR6 PHY,Rambus全面支持中国市场的AI升级

花茶晶晶 ? 来源:电子发烧友网 ? 作者:黄晶晶 ? 2023-05-26 16:38 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人工智能在通过大量的数据进行训练之后,神经网络打造的完整模型将被集成在边缘或实际应用场之中,往往大量的AI正是应用在于边缘AI推理。与AI训练需要大量的数据和算力不同,AI推理对算力的需求大幅下降,但对成本和功耗更为敏感。

在AI推理应用越来越多的趋势下,Rambus率先研判与推出GDDR6 IP产品组合。Rambus IP核产品营销高级总监Frank Ferro先生表示,作为更加理想的方案,GDDR6有着高带宽以及低时延的特性,能够帮助边缘端更好地处理数据。

Rambus GDDR6 PHY以及控制器的配套产品,已经达到了业界领先的24Gb/s的数据传输速率,这也是全新的一个行业标杆,可以为AI推理等应用场景带来巨大性能优势和收益。

除性能之外,另一大优势是对功耗的管理。因为当设备在高速和高带宽环境下运行时,良好的功耗管理非常重要。

还有系统层面的设计。如果要确保系统在24Gb/s环境下运行,需要良好的系统级信号完整性。Rambus信号完整性的工程师,也会与客户进行非常紧密的从设计初期开始的合作,能够确保客户运行系统的时候达到最高的性能。

另外,Rambus提供的产品已经实现了PHY以及控制器的完整集成。在客户收到产品之后,可以直接对这些子系统进行定制化应用。

GDDR6内存接口子系统的结构


下图的结构包括PHY物理层、控制器、DRAM以及客户端的ASIC



Frank Ferro解析,PHY的物理层与DRAM进行直接连接,这个接口是由两个16位的插槽所组成,加起来是32位。

另外一侧是DFI接口与内存的控制器进行连接,控制器直接接入到整个系统的逻辑控制。Rambus提供的是中间标蓝的两个非常重要的环节,也就是完整的子系统,Rambus会根据客户具体应用场景和实际的诉求对子系统来进行优化,并将其作为完整的子系统来交付给客户。

GDDR的“G”代表的是graphic (图形),因此它可以用于图形处理,同时也可以用于人工智能以及机器学习算法中,以及网络应用等。

在GDDR6拥有的诸多特点中,值得一提的是clamshell模式,具体指的是每个信道可以支持两个GDDR6的设备。换句话说,在clamshell模式之下整个容量是直接翻倍乘以2的。



另外,GDDR6现在已经支持比较先进的FinFET工艺节点,实际上从2019年开始Rambus就已经支持非常先进的制程工艺。

同时,也会针对PCB以及封装提供相关的参考设计。在内部有专门的信号完整度和边缘完整性的专家,来帮助客户去完成整个的设计工作。

Frank Ferro表示,Rambus的GDDR6接口子系统可以实现高达24Gb/s的卓越性能,可以为每个GDDR6内存设备提供最高达到96Gb/s的带宽。GDDR6是在AI应用场景下比较合理的产品和选择,因为可以在成本和性能之间达成不错的平衡。

边缘AI推理,GDDR6是更合适的选择


实际上内存的形式有很多种,DDR、LPDDR、GDDR以及HBM等,那么边缘AI推理用哪种内存最合适,在Frank Ferro看来GDDR6将是脱颖而出的那一个。

他说,GDDR6有着优秀的数据传输速率,可适用于很多AI推理场景。尤其在一些网络应用中,GDDR6能具有重要作用。“现在非常多的具体网络应用场景都已经开始在边缘端实现了。尤其是有的应用要求所有传入的数据必须在本地进行实时处理,这种需求的增加对本身产品架构的要求会很高。因此传统的DDR方案已经远远不能满足要求,因为需要有很多的DDR设备。而部署GDDR6在边缘设备,能够大幅度降低网络边缘设备对DDR数量的需求。”

一般来说,AI推理对带宽的需求在200到500Gb/s的范围之间。而每一个GDDR6设备的带宽可以达到96Gb/s,通过将4-5个GDDR6设备组合,就可以轻松满足500Gb/s及以下的带宽需求。

以DDR4为例,它的速度可能最高能达到3.2Gb/s。虽然它的成本相对较低,但是速度是一大劣势。GDDR技术在几年前就能够实现16Gb/s的带宽,已经超过DDR技术的三到四倍之多。当然,DDR、GDDR和LPDDR这些不同的产品都是以标准的DRAM为基础,LPDDR更关注低功耗管理,DDR本身的数据存储密度会更高一点,而GDDR是更关注于速度。

此外,如果用到一个HBM3设备就能够达到接近800Gb的带宽,但它会使得成本增加3至4倍。因此,对于对带宽和低延迟有很高要求的AI训练场景,HBM可能是更好的选择。而对于需要更大容量、更高带宽的AI推理场景,则GDDR6是更合适的选择。

全面的产品组合,满足中国客户不同的AI需求

Rambus作为一家业界领先的半导体IP和芯片供应商,技术实力强劲,拥有3000多项技术专利,企业使命是让数据传输更快、更安全。经过三十多年的发展和创新,Rambus现在的主要业务包含基础专利授权、芯片IP授权和内存接口芯片。Rambus的技术和产品面向的市场是数据密集型市场,包括数据中心5G物联网IoT、汽车等细分市场。其产品组合,与AIGC应用对数据传输的需求十分契合。



以ChatGPT为代表的AIGC应用热潮袭卷到中国,我们可以看到中国不少互联网大厂都发布了自己的AI大模型。那么Rambus如何支持中国客户的AI数据传输需求呢?

Rambus大中华区总经理苏雷先生长期投身中国市场,他表示Rambus在和芯片厂商的沟通中发现更多厂商聚焦于AI训练,因此他们的方案更多需求在于HBM;在与云厂商的沟通中,他们更多是关注数据中心推出的一系列产品,即中国式ChatGPT产品,他们需要更多的算力。在内存产品上,Rambus有非常好的接口芯片,向云厂商提供我们的服务和产品。



还有一类客户是中国的OEM和ODM厂商,他们把目光转向了当前非常新的技术CXL。因为CXL可以带来更多内存带宽和内存容量,所以我们正在紧密合作提供方案,以加大整个系统内存的带宽,帮助他们的产品推向市场。

苏雷说,Rambus China立足于中国市场,愿意更多、更紧密地支持中国公司在ChatGPT产业的发展,以最好的技术、最快的响应和最好的技术支持来服务中国市场,给广大客户保驾护航。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Rambus
    +关注

    关注

    0

    文章

    64

    浏览量

    19131
  • PHY
    PHY
    +关注

    关注

    2

    文章

    326

    浏览量

    53038
  • GDDR6
    +关注

    关注

    0

    文章

    52

    浏览量

    11499
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    华为亮相2025金融AI推理应用落地与发展论坛

    创新技术——UCM推理记忆数据管理器,旨在推动AI推理体验升级,提升推理性价比,加速AI商业正循
    的头像 发表于 08-15 09:45 ?216次阅读

    睿海光电以高效交付与广泛兼容助力AI数据中心800G光模块升级

    器件敏捷调配。 定制化服务:支持OEM/ODM/JDM模式,满足客户从标准品到液冷模块的多元化需求。 这一优势已助力多家头部云服务商在AI云平台部署中抢占市场窗口期。 三、广泛兼容性:平滑升级
    发表于 08-13 19:01

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    网络智能诊断平台。通过对私有化网络数据的定向训练,信而泰打造了高性能、高可靠性的网络诊断模型,显著提升了AI辅助诊断的精准度与实用性。该方案实现了网络全流量深度解析能力与AI智能推理
    发表于 07-16 15:29

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    ,联发科带来了全面升级的天玑AI开发套件2.0,在模型库规模、架构开放程度、前沿端侧AI技术支持和端侧LoRA训练落地等方面均迎来
    发表于 04-13 19:52

    曙光存储全新升级AI存储方案

    近日,曙光存储全新升级AI存储方案,秉持“AI加速”理念,面向AI训练、AI推理
    的头像 发表于 03-31 11:27 ?582次阅读

    BK200-800S24GB1N6 BK200-800S24GB1N6

    电子发烧友网你提供AIPULNION(AIPULNION)BK200-800S24GB1N6相关产品参数、数据手册,更有BK200-800S24GB1N6的引脚图、接线图、封装手册、中文资料、英文
    发表于 03-21 18:40
    BK200-800<b class='flag-5'>S24GB1N6</b> BK200-800<b class='flag-5'>S24GB1N6</b>

    Banana Pi 发布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 计算与嵌入式开发

    RZ/V2N——近期在嵌入式世界2025上新发布, AI 计算、嵌入式系统及工自动化提供强大支持。这款全新的计算平台旨在满足开发者和企业用户对高性能、低功耗和灵活扩展的需求。 []() 领先的计算
    发表于 03-19 17:54

    正点原子ESP32S3系列开发板全面支持小智AI

    可能大家觉得AI离我们很远,但是小智AI可以把这个距离拉得很近。正点原子ESP32S3系列开发板全面支持小智
    发表于 02-14 17:01

    苹果加速推进中国市场AI战略

    据彭博社等多家财经媒体报道,全球科技巨头苹果公司正在积极谋划针对中国市场的本土化人工智能战略部署。 据知情人士透露,苹果公司技术团队正全力以赴,加速研发适配中国市场AI功能模块。这一举措旨在满足
    的头像 发表于 02-14 14:27 ?613次阅读

    英特尔2025上半年将推24GB显存锐炫B580显卡

    近日,据最新报道,英特尔计划在2025年上半年推出其全新独立显卡产品——锐炫B580 24GB。这款显卡将采用英特尔的“Battlemage”架构,配备高达24GB的显存容量,以满足用户对高性能图形
    的头像 发表于 01-03 10:46 ?1955次阅读

    英特尔2025上半年或推24GB显存锐炫B580显卡

    备受瞩目的显卡将延续现有锐炫B580 12GB的成功之路,同样基于先进的BMG-G21 GPU核心打造。为了满足日益增长的图形处理需求,英特尔这款显卡配备了高达12颗16
    的头像 发表于 01-02 11:07 ?1393次阅读

    李开复:中国擅长打造经济实惠的AI推理引擎

    10月22日上午,零一万物公司的创始人兼首席执行官李开复在与外媒的交流中透露,其公司旗下的Yi-Lightning(闪电模型)在推理成本上已实现了显著优势,比OpenAI的GPT-4o模型低了31倍。他强调,中国擅长打造经济实惠
    的头像 发表于 10-22 16:54 ?814次阅读

    三星推出业界首款24Gb(3GBGDDR7 DRAM内存芯片

    三星推出了业内首款24Gb(即3GBGDDR7 DRAM内存芯片,其超高速度可达42.5Gbps,专为下一代图形处理单元(GPU)打造。据三星介绍,得益于多项改进与更新,该芯片相比前
    的头像 发表于 10-22 15:13 ?2257次阅读

    三星发布业界首款24Gb GDDR7 DRAM

    近日,存储芯片巨头三星电子宣布了一项重大突破:成功开发出业界首款24Gb GDDR7 DRAM。这款新品不仅在容量上达到了业界最高水平,更在速度上实现了显著提升,成为下一代AI计算应用的理想解决方案。
    的头像 发表于 10-18 16:58 ?1217次阅读

    英伟达推出搭载GDDR6显存的GeForce RTX 4070显卡

    面对全球GDDR6X显存供应的严峻挑战,英伟达今日宣布了一项灵活应变的市场策略:正式推出搭载GDDR6显存的GeForce RTX 4070显卡,旨在有效缓解市场对这一热门型号显卡的急
    的头像 发表于 08-21 15:09 ?1232次阅读