0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

传DeepSeek自研芯片,厂商们要把AI成本打下来

花茶晶晶 ? 来源:电子发烧友 ? 作者:黄晶晶 ? 2025-02-16 00:09 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/黄晶晶)日前业界消息称,DeepSeek正广泛招募芯片设计人才,加速自研芯片布局,其芯片应用于端侧或云侧尚不明朗。不少科技巨头已有自研芯片的动作,一方面是自研芯片能够节省外购芯片的成本,掌握供应链主动权,另一方面随着AI推理应用的爆发,AI推理芯片有机会被重新定义。

DeepSeek不完全依赖英伟达

去年12月底发布的DeepSeek-V3模型,整个训练使用2048块英伟达H800 GPU。H800是英伟达特供中国显卡,相较于它的旗舰芯片H100降低了部分性能。也就是说DeepSeek-V3模型的训练并不需要追求使用最尖端的GPU。

DeepSeek在训练过程中采用了多种方法来优化硬件利用效率。例如,通过绕过CUDA编程框架,直接使用英伟达的中间指令集框架Parallel Thread Execution (PTX),DeepSeek能够更高效地利用硬件资源,提供更细粒度的操作控制,从而避免由于CUDA的通用性导致的训练灵活性损失。这种做法使得DeepSeek能够在五天内完成其他模型需要十天才能完成的训练任务,极大地提高了训练效率。

DeepSeek的V3和R1大模型得到了不少芯片厂商的适配。如1月25日AMD宣布将DeepSeek-V3模型集成到其Instinct MI300X GPU上。而适配DeepSeek-R1大模型的厂商包括英伟达、英特尔以及国内厂商昇腾、龙芯、摩尔线程、海光信息等等。而采用这些芯片所获得的DeepSeek-R1模型推理性能不亚于英伟达GPU的效果。

DeepSeek有着对架构更深层次的理解,如若自研芯片,发挥其软硬件结合的能力,那么研发更具性价比的训练或推理芯片,进一步降低成本,或许将在更大程度上促进端侧AI的应用爆发,以及带动AI芯片的多样性发展。

OpenAI 3nm 推理芯片

去年,OpenAI进行硬件战略调整,旨在优化计算资源和降低成本。OpenAI将引入AMD的MI300系列芯片,并继续使用英伟达的GPU。而其自研芯片也提上日程。去年10月,OpenAI与芯片制造商博通合作开发首款专注于推理的人工智能芯片。双方还在与台积电进行磋商,以推进这一项目。

据外媒最新报道OpenAI 将在未来几个月内完成其首款内部芯片的设计,并计划将其送往台积电制造,台积电将使用 3nm 技术制造 OpenAI 芯片,该芯片有望在 2025 年底进行测试以及在 2026 年开始大规模生产,预计该芯片将具有“高带宽内存”和“广泛的网络功能”。

根据机构测算,到2028年人工智能的推理负载占比有望达到85%,考虑到云端和边缘侧巨大的推理需求,未来推理芯片的预期市场规模将是训练芯片的4~6倍。OpenAI自研推理芯片正好赶上这波人工智能推理应用的全面爆发。

亚马逊3nm制程Trainium3芯片
实际上,为了摆脱对英伟达GPU的依赖,亚马逊、微软和 Meta 等科技巨头也开始自研芯片。

去年12月,亚马逊 AWS 宣布,基于其内部团队所开发 AI 训练芯片 Trainium2 的 Trn2 实例广泛可用,并推出了 Trn2 UltraServer 大型 AI 训练系统,同时还发布了下代更先进的 3nm 制程 Trainium3 芯片。

单个 Trn2 实例包含 16 颗 Trainium2 芯片,各芯片间采用超高速高带宽低延迟 NeuronLink 互联,可提供 20.8 petaflops 的峰值算力,适合数 B 参数大小模型的训练和部署。

而亚马逊 AWS下代 Trainium3 AI 训练芯片,是 AWS 首款采用 3nm 制程的芯片产品。亚马逊表示基于 Trainium3 的 UltraServer 性能可达 Trn2 UltraServer 的 4 倍,首批基于 Trainium3 的实例预计将于2025年底推出。

LPU语言处理单元

在AI推理大潮下,Groq公司开发的语言处理单元(Language Processing Unit,即LPU),以其独特的架构,带来了极高的推理性能的表现。

Groq的芯片采用14nm制程,搭载了230MB SRAM以保证内存带宽,片上内存带宽达80TB/s。在算力方面,该芯片的整型(8位)运算速度为750TOPs,浮点(16位)运算速度为188TFLOPs。

在Llama 2-70B推理任务中,LPU系统实现每秒近300 token的吞吐量,相较英伟达H100实现10倍性能提升,单位推理成本降低达80%。在Llama 3.1-8B推理任务中,LPU系统实现每秒736 token的吞吐量。

wKgZPGevFn2AP6-UAARLffR7VDU319.png
图源:Groq官网



公开信息显示,LPU的运作方式与GPU不同,它使用时序指令集计算机(Temporal Instruction Set Computer)架构,与GPU使用的SIMD(单指令,多数据)不同。这种设计可以让芯片不必像GPU那样频繁地从HBM内存重载数据。并避免了HBM短缺的问题,从而降低成本。

在能效方面,LPU 通过减少多线程管理的开销和避免核心资源的未充分利用,实现了更高的每瓦特计算性能,在执行推理任务时,从外部内存读取的数据更少,消耗的电量也低于英伟达的GPU。

LPU的推出为AI推理芯片带来了新的思路,但不得不说的是,Groq LPU芯片的成本相对较高,主要是购卡成本和运营成本。若以大模型运行吞吐量来计算,同等数据条件下,Groq LPU的硬件成本价格不菲。尽管这一芯片的性能表现突出,但对于成本优化还需要做出很多努力。希望随着硬件技术、生产制造以及规模效应的逐步成熟,其应用成本有望得到改善。

DeepSeek的出现,以低成本特性降低了企业准入门槛,使更多企业能够开展 AI 项目,推理端需求大幅增长。但这还不够,要使AI训练或推理成本进一步下探,不再局限于采用某一家的GPU,而是SoC、ASICFPGA等芯片都有机会,一些新的技术架构、不依赖先进工艺的芯片等有更多发展的空间,从而推动AI芯片的多元化发展。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • DeepSeek
    +关注

    关注

    2

    文章

    804

    浏览量

    1830
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    信而泰×DeepSeekAI推理引擎驱动网络智能诊断迈向 “自愈”时代

    DeepSeek-R1:强大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI大模型。其核心优势在于强大的推理引擎能力,融合了自然语言处理(
    发表于 07-16 15:29

    Deepseek海思SD3403边缘计算AI产品系统

    的训练样本和训练 模型,具体商业价值和保密性,采用海思SD3403边缘计算AI服务器+多路安防监控IPC,让差异化AI视频系统, 成本控制极具市场竞争力。 海思SD3403边缘计算AI
    发表于 04-28 11:05

    科通技术推出DeepSeek+AI芯片全场景方案

    2025年,随着DeepSeek新版本的开源,AI技术掀起了全球普及的浪潮。在这股浪潮中,AI芯片作为关键算力支撑,其应用场景不断拓展,从云端到本地,再到终端设备,
    的头像 发表于 03-24 10:33 ?721次阅读

    EVASH芯片公司接入DeepSeekAI驱动的芯片设计革新

    EVASH芯片公司接入DeepSeekAI驱动的芯片设计革新
    的头像 发表于 03-03 17:45 ?492次阅读

    今日看点丨小鹏芯片或5月上车;安森美将在重组期间裁员2400人

    车型,该车将是搭载芯片的首款车型,内部代号或为“F57”。 ? 去年8月27日,小鹏汽车召开发布会,正式发布了其
    发表于 02-26 10:55 ?267次阅读

    DeepSeek、晶振在AI终端中的相关应用

    国产AI大模型DeepSeek崛起,2025年1月27日,DeepSeek应用登顶苹果美国地区、中国区应用商店免费APP下载排行榜凭借开源、极具成本优势、高性能已成为全球现象级模型。
    的头像 发表于 02-19 14:44 ?654次阅读

    华发布昇腾AI Box及Deepseek R1模型部署流程

    。这一举措标志着华在AI边缘计算领域迈出了重要一步。 华边缘AI Box MIC-ATL3S依托昇腾芯片的强大异构计算能力,结合
    的头像 发表于 02-19 10:41 ?804次阅读

    添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略

    AI 技术日新月异的当下,新的模型与突破不断涌现。近期,DeepSeek(深度求索)模型以其卓越性能和亲民成本,迅速在全球开发者圈子里引发热议。作为一款强大的语言模型,DeepSeek
    发表于 02-14 17:42

    华边缘AI Box MIC-ATL3S部署Deepseek R1模型

    随着深度求索(DeepSeek)大模型的发布引发行业热议,华科技基于昇腾Atlas平台边缘AI Box MIC-ATL3S正式发布与Deepseek R1模型的部署流程。该平台依托昇
    的头像 发表于 02-14 16:08 ?1489次阅读
    <b class='flag-5'>研</b>华边缘<b class='flag-5'>AI</b> Box MIC-ATL3S部署<b class='flag-5'>Deepseek</b> R1模型

    华WISE-AI Agent借助DeepSeek引领企业级AI全新范式

    本期导读 华WISE-AI Agent平台结合DeepSeek大模型,通过Edge AI技术将AI推理能力下沉至边缘设备,助力工业企业实现
    的头像 发表于 02-12 09:42 ?1046次阅读
    <b class='flag-5'>研</b>华WISE-<b class='flag-5'>AI</b> Agent借助<b class='flag-5'>DeepSeek</b>引领企业级<b class='flag-5'>AI</b>全新范式

    deepseek国产芯片加速 DeepSeek的国产AI芯片天团

    ,从而纷纷继续“卷”起来,效仿DeepSeek的“开源”模式。 对于DeepSeek本身,人们关注其如何在有限算力实现强大性能,更关注其在重重条令围城之下的未来之路。而在最近,全世界的芯片厂商
    的头像 发表于 02-10 15:07 ?3993次阅读
    <b class='flag-5'>deepseek</b>国产<b class='flag-5'>芯片</b>加速 <b class='flag-5'>DeepSeek</b>的国产<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>天团

    吉利汽车与DeepSeek深度融合,引领智能汽车AI新纪元

    近日,吉利汽车正式宣布,其大模型与前沿AI技术公司DeepSeek已完成深度技术融合。继在2025CES上发布行业首个“智能汽车全域AI
    的头像 发表于 02-08 10:47 ?972次阅读

    亚马逊启动“登月”计划,目标部署10万颗AI芯片

    :Trainium2,目标是在亚马逊自己的数据中心里部署10万颗Trainium2,以提高数据处理效率并降低AI芯片采购成本。 ? 近几年,亚马逊一直都在致力于
    的头像 发表于 12-02 00:26 ?2933次阅读

    比亚迪最快于11月实现算法量产,推进智驾芯片进程

    10月21日市场传出消息,比亚迪正计划整合其新技术院下的智能驾驶团队,目标是在今年11月实现智能驾驶算法的量产,并持续推进智能驾驶芯片
    的头像 发表于 10-22 15:57 ?1511次阅读

    打下数字设计基础

    本人二刚出来实习,对设计了解的不够全面。公司的机会也很少,希望在实习阶段能够自己多学点,打下基础。
    发表于 08-26 08:57