0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

继HBM之后,英伟达带火又一AI内存模组!颠覆AI服务器与PC

花茶晶晶 ? 来源:电子发烧友网 ? 作者:综合报道 ? 2025-07-27 07:50 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网综合报道,据韩媒报道,下一代低功耗内存模块 “SOCAMM” 市场已全面拉开帷幕。英伟达作为 AI 领域的领军企业,计划在今年为其 AI产品部署60至80万个 SOCAMM 内存模块,不仅将用于数据中心AI服务器,也将有望应用于PC。这一举措将对内存市场以及相关产业链产生深远影响。

SOCAMM

SOCAMM 全称为 Small Outline Compression Attached Memory Module,即小型化压缩附加内存模组,是英伟达主导开发的一种新型内存模块,是适用于数据中心 AI 服务器的新型高性能、低功耗内存。

它将低功耗 DRAM 与压缩连接内存模块(CAMM)搭配使用,以全新的外形尺寸提供卓越的性能和能效。基于 LPDDR5X 芯片,采用694个I/O端口,带宽可达传统 DDR5 的2.5倍。

在物理形态上,SOCAMM 尺寸仅为 14×90 毫米,外形类似U盘,相比传统 RDIMM 体积减少66%,为实现更紧凑、高效的服务器设计提供了可能。SOCAMM 采用了可拆卸的模块化插拔结构,改变了以往 LPDDR 内存必须焊接在主板上的限制,用户可以像更换硬盘或 SSD那样便捷地进行内存升级或替换,大大提高了系统的灵活性和可维护性。

SOCAMM 采用引线键合和铜互连技术,每个模块连接 16 个 DRAM 芯片,这种铜基结构增强了散热性能,对于 AI 系统的性能和可靠性至关重要。同时,SOCAMM 基于成熟的封装工艺,显著降低了部署门槛和制造难度,具备更强的成本控制能力和更广泛的适用范围。

于AI服务器和PC中采用

得益于 LPDDR5X 自身的低电压设计和优化后的封装工艺,SOCAMM 使服务器整体运行能耗减少约 45%,这种高效能与低功耗的平衡特性,使得 SOCAMM 不仅适用于集中式的数据中心,也能很好地服务于边缘计算场景中对空间和能耗敏感的应用需求。NVIDIA 计划将 SOCAM 率先应用于其 AI 服务器产品和 AI PC(工作站)产品。

在英伟达的规划中,将率先采用SOCAMM的产品将是GB300 Blackwell 平台。Blackwell 架构 GPU 具有 2080 亿个晶体管,采用专门定制的台积电 4NP 工艺制造。所有 Blackwell 产品均采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的GPU。其在性能、效率和规模方面取得了突破性进步。而 SOCAMM 内存模块的加入,将进一步提升其在 AI 运算方面的表现。

此外,英伟达在今年5月GTC 2025上发布的个人 AI 超级计算机 “DGX Spark” 也采用了 SOCAMM 模块。DGX Spark 采用 NVIDIA GB10 Grace Blackwell 超级芯片,能够提供高性能 AI 功能,并支持多达 2000 亿个参数的模型。随着DGX Spark的推出,预计将推动SOCAMM向PC市场渗透,使更多消费者受益于这一先进的内存技术。

SOCAMM 与现有的笔记本电脑 DRAM 模块(LPCAMM)相比,其 I/O 速度提升,数据传输速度加快,且结构紧凑,更易于更换和扩展。

随着 SOCAMM 在 AI 服务器和 PC 中的应用不断增长,其大规模出货预计将对内存和 PCB 电路板市场产生积极影响。知情人士透露,“英伟达正在与内存和电路板行业分享 SOCAMM 的部署量(60 至 80 万片),该模块将应用于其 AI 产品”,目前内存和 PCB 电路板行业都在为订单和供货积极做准备。

从内存市场来看,SOCAMM 的应用将刺激对低功耗 DRAM 的需求,推动内存厂商加大在相关技术研发和产能扩充方面的投入。由于 SOCAMM 需要适配电路板设计,这将促使 PCB 厂商开发新的产品方案,带动行业技术升级。

美光率先供应SOCAMM

目前在内存厂商中,美光的 SOCAMM已率先获得英伟达量产批准。美光在内存解决方案领域一直积极探索创新,成为英伟达下一代内存供应商。而三星和 SK 海力士的 SOCAMM 目前尚未获得英伟达认证,不过这两家内存大厂也在积极与英伟达接洽,希望能够供应SOCAMM。

美光 SOCAMM 是业界首款专为 AI 资料中心设计的资料中心级模块化低功耗存储器模块。透过将美光业界领先的 LPDDR5X 与 CAMM 存储器模块结合在一起,这款次世代存储器为更有效率的 AI 资料中心奠定了基础。

来源:美光官网


美光宣称其最新LPDDR5X芯片能效比竞争对手高出20%,这是其赢得英伟达订单的关键因素。考虑到每台AI服务器将搭载四个SOCAMM模块(总计256个DRAM芯片),散热效率的重要性尤为突出。

与美光此前生产的服务器 DDR 模块RDIMM相比,SOCAMM的尺寸和功耗减少了三分之一,带宽增加了 2.5 倍。

通过采用美光LPDDR5X 等创新型低功耗(LP)存储器架构,资料中心可以大幅提高效能,并能够避免传统 DDR5 存储器的能源损耗。与 DDR5 等传统存储器技术不同,LP 存储器运行于较低的电压,并通过减少功耗、降低发热量、最佳化以节能为重点的电路设计等方式提高功耗和能源效率。

在大规模客户支持环境中执行推理 Llama 3 70B,单个 GPU 管理复杂的AI互动,同时实时处理数千个错综复杂的客户查询。LP 存储器的使用将这一密集型运算工作量转化为能源效率更高的过程。

当我们测试 LPDDR5X 存储器(在搭载 NVLink 的 NVIDIA GH200 Grace Hopper 超级芯片上)与传统 DDR5 存储器(在搭载 PCIe 连线 Hopper GPU 的 x86 系统上)时,结果表明 LP 存储器实现了关键的效能提升。使用 Meta Llama 3 70B 测试推理效能时,LP 存储器系统推理吞吐量提高了 5 倍、延迟减少了近 80%、能源消耗降低了 73%。

LLM 推理的能源效率 来源:美光官网



小结:

随着英伟达对 SOCAMM 内存模块的大规模部署,以及其在 AI 服务器和 PC 市场的逐步渗透,将推动整个 AI 产业链围绕这一新型内存技术进行升级和发展。无论是内存厂商、PCB电路板厂商,还是服务器制造商和终端用户,都将受益于SOCAMM带来的影响。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    GPU猛兽袭来!HBM4、AI服务器彻底引爆!

    电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及
    的头像 发表于 06-02 06:54 ?5948次阅读

    AI服务器电源技术研讨会部分演讲嘉宾确认

    AI服务器电源是2025-2026年AI硬件确定的增量,英伟超级芯片GB200功率到2700W,是传统
    的头像 发表于 06-24 10:07 ?269次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源技术研讨会部分演讲嘉宾确认

    比肩HBM,SOCAMM内存模组即将商业化

    参数规模数百亿甚至万亿级别,带来巨大内存需求,但HBM内存价格高昂,只应用在高端算力卡上。SOCAMM则有望应用于AI
    的头像 发表于 05-17 01:15 ?2972次阅读

    英伟开发新型内存模组SOCAMM,或年底量产

    据韩媒近日报道,英伟已在内部成功研发出种新型内存模组,命名为SOCAMM。这创新成果不仅标
    的头像 发表于 02-19 11:41 ?818次阅读

    美光量产12层堆栈HBM,获英伟供应合同

    近日,美光科技宣布即将开始量产其最新的12层堆栈高带宽内存HBM),并将这高性能产品供应给领先的AI半导体公司英伟
    的头像 发表于 02-18 14:51 ?706次阅读

    鸿海GB200 AI服务器顺利完成英伟交付目标

    据台媒报道,鸿海近期在AI服务器领域取得了显著成果。为确保英伟超级AI芯片GB200的出货进度,鸿海在中国台湾和越南等地的厂区在农历新年期
    的头像 发表于 02-06 17:59 ?944次阅读

    英伟GB300 AI服务器预计2025年Q2发布,强化水冷散热需求

    近日,据供应链最新消息,英伟正紧锣密鼓地设计其下代GB300 AI服务器,并预计在2025年第二季度正式发布。随后,该产品将在第三季度进
    的头像 发表于 01-06 10:19 ?1349次阅读

    英伟GB300 AI服务器订单配置初定

    近日,据业界消息透露,英伟已初步敲定了其下代GB300 AI服务器产品线的订单配置。预计英伟
    的头像 发表于 12-25 10:52 ?1145次阅读

    英伟加速认证三星新型AI存储芯片

    近日,英伟首席执行官黄仁勋近日在接受采访时透露,英伟正在全力加速对三星最新推出的AI存储芯片——HB
    的头像 发表于 11-26 10:22 ?692次阅读

    英伟加速认证三星AI内存芯片

    近日,英伟公司正在积极推进对三星AI内存芯片的认证工作。据英伟CEO透露,他们正在不遗余力地
    的头像 发表于 11-25 14:34 ?693次阅读

    英伟加速Rubin平台AI芯片推出,SK海力士提前交付HBM4存储

    日,英伟(NVIDIA)的主要高带宽存储HBM)供应商南韩SK集团会长崔泰源透露,英伟
    的头像 发表于 11-05 14:22 ?1287次阅读

    英伟地表最强AI芯片GB200 NVL72服务器遭抢购

    10月28日,最新媒体报道显示,配备有英伟被誉为“地表最强AI芯片”的GB200的AI服务器已开始交付,微软、Meta等行业巨头正积极扩大
    的头像 发表于 10-29 10:42 ?1536次阅读

    微软Azure首获英伟GB200 AI服务器

    微软Azure在社交平台上宣布了项重要进展,公司已经成功获得了搭载英伟最新GB200超级芯片的AI服务器。这
    的头像 发表于 10-10 17:01 ?1151次阅读

    英伟AI服务器将革新采用插槽式设计

    英伟AI服务器领域即将迎来重大变革。据里昂证券最新发布的报告预测,从明年下半年起,英伟的旗舰
    的头像 发表于 09-27 11:47 ?806次阅读

    三星电子HBM3E内存英伟认证,加速AI GPU市场布局

    近日,知名市场研究机构TrendForce在最新发布的报告中宣布了项重要进展:三星电子的HBM3E内存产品已成功通过英伟验证,并正式开启
    的头像 发表于 09-05 17:15 ?1145次阅读