0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达A800芯片也要被禁售了?中国AI大模型还能怎么玩?国产GPU能否挑大梁

Carol Li ? 来源:电子发烧友网 ? 作者:李弯弯 ? 2023-06-29 09:09 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/李弯弯)近日消息,美国考虑进一步限制向中国出口AI芯片,商务部最早可能在下个月初采取行动。在没有获得许可证的情况下,美商务部将禁止英伟达等制造商向中国客户运送AI芯片。英伟达专供中国的A800芯片,在无许可证的情况下也将被禁售。

A800是英伟达专为中国客户推出的产品,用以解决美国商务部的半导体出口新规,取代A100 GPU,该产品在2022年第三季度起投产。近段时间,大模型迅猛发展,国内在新规之前采购的可流通A100并不多,目前各互联网厂商争相采购的主要是A800。

A800被禁售,国内AI大模型训练受阻?

在AI大模型的训练上,现在基本上是用英伟达的A100、H100以及特供中国的减配版 A800、H800。2020年和2022年,英伟达先后推出了A100芯片、H100芯片,其中A100显卡又提供80GB、40GB两个显存版本,H100则提供80GB显存。

A100拥有540亿晶体管,采用台积电7nm工艺制程,支持FP16、FP32和FP64浮点运算,为人工智能、数据分析和HPC数据中心等提供算力。

H100集成800亿晶体管,采用台积电定制的4nm工艺,相比于A100,H100在FP16、FP32和FP64计算上比A100快三倍,非常适用于当下流行且训练难度高的大模型。

2022年9月,美国商务部对GPU 的出口规定,主要限制是显卡的算力和带宽,算力上线是4800 TOPS,带宽上线是600 GB/s。A800的带宽为400GB/s,低于A100的600GB/s,H800的参数并未公布,据知情人士透露只有H100(900 GB/s)到约一半。

这意味着A800、H800在进行AI模型训练的时候,需要耗费更长的时间,不过这相比于其他的同类产品,性能仍然是高的。

最近大半年时间,随着ChatGPT的出圈,国内外各大互联网公司、AI企业都在大力研发自己的AI大模型产品,而这也造成了对GPU的极大需求。各大互联网厂商都在大力采购英伟达的GPU芯片,包括百度、阿里、腾讯、字节跳动等等。

在国内,还可流通的A100并不多,据一家服务器定制企业的销售经理描述,需求太过火爆,甚至有人从机房里把芯片禁运政策生效前购买的A100 80GB拆出来倒卖。

如今,国内市场还是主要倚赖在政策允许范围内的A800芯片。不过大模型火爆之后,因为需求太大,A800也出现供货周期拉长、价格上涨的情况,据业内人士透露,之前两周时间就能到货,现在乐观的情况也要4-6周的时间,甚至更长。

如今,根据美国商务部的意思,A800在无许可证的情况下将被禁售,这意味着,后续国内企业在大模型的研究中,不仅仅是买到A800需要更长时间的问题,而是很可能买不到的问题。而且不仅仅是A800,其他AI芯片向中国的销售也可能受阻,包括原本也可以用于一些模型训练,性能较差一些的V100等。这意味着,国内企业AI大模型后续的训练将受阻。

国产GPU能否挑大梁?

如此看来,国内AI后续的发展,它对算力的需求似乎就只能指望国产GPU了。目前国产GPU的情况如何呢?

大模型训练需要处理高颗粒度的信息,对云端训练芯片的芯片处理信息的精细度和算力速度要求更高,现阶段国产GPU大多数不具备支撑大模型训练所需的能力。

不同于多媒体和图形处理的单精度浮点计算(FP32)计算需求,在超算领域,双精度浮点计算能力FP64是进行高算力计算的硬性指标。

目前国内GPU芯片的云端训练公司,大多只能处理单精度浮点计算,如壁仞科技(通用GPU芯片BR100)、天数智芯(“智铠100”)、寒武纪(云端推理思元270)的产品在FP32的理论指标上做得不错,但没有处理FP64的能力。

所以说,从短期来看,国产的GPU产品还难以支撑起AI大模型的训练,这意味着英伟达A800芯片被禁售,国内AI大模型接下来的研究将难以为继。

那是不是说,无论是国内的AI大模型企业,还是国产的GPU企业,真的就束手无策了?也并不是。据业内人士介绍,对于算力的需求主要与模型参数有关,大厂现在所做的通用大模型依然只能使用英伟达的产品。但是,垂类行业的大模型(金融、医疗等)或者参数量不像GPT那样大的模型,一些国产GPU也能够做到。

比如,国内某短视频平台参数量约为1000亿的大模型,就用了寒武纪的产品,做训练和推理。当然该模型训练使用了英伟达的A100。

此外,今年6月10日,天数智芯对外宣布,在天垓100加速卡的算力集群,基于北京智源人工智能研究院70亿参数的Aquila语言基础模型,使用代码数据进行继续训练,稳定运行19天,模型收敛效果符合预期,证明天数智芯有支持百亿级参数大模型训练的能力。

摩尔学院院长李丰此前对媒体表示,公司已经可以支持3亿参数量模型的训练。

首都在线表示,公司与燧原科技联合开发的AIGC模型方案已发布内测,产品可以从容应对前期投入大、算力要求高、算法模型快速迭代创新的需求,并广泛支持文本、语音、视觉等各技术方向的模型训练。

可见,目前国产GPU虽然在参数量较大的模型训练上存在不足,但是确实已经能够在一些中小参数模型的训练上有所作为。

登临科技联合创始人王平此前对媒体表示,相比于国际领先的GPU产品,国产GPU确实在满足大模型训练上存在差距,因为此前行业在产品定义上未朝大模型方向做设计。

而现在国产GPU公司都在朝着大模型方向去布局,相信未来终能够找到方向,进行突破。而且如今A800在无许可证的情况下如果禁售,这对于国产GPU的发展将会有强大的刺激作用,因为如果不突破,意味着国内未来AI大模型的发展将无计可施,这似乎成了唯一的出路。

目前业界正在做相关的探索,比如,思考能否通过Chiplet、先进封装的方式提高算力。研究如何提升芯片与芯片间的数据传输速度等。昆仑芯就表示,相较于第一代产品,昆仑芯2在算力、互联上都有大幅优化,公司正在不断研发新的产品和技术,以满足ChatGPT等大模型的应用需求。

小结

很显然,在A100、H100之后,若A800在无许可证下被禁售,意味着国内AI大模型后续的训练将无GPU可用。目前而言国产GPU几乎还不能用于较大规模参数模型的训练。不过可以看到,一些产品在较小规模,比如几亿、甚至百亿级别参数规模的模型训练上,已经可以有所作为。而且目前众厂商都在朝着大模型应用方向进行探索,从长远来看,必然会逐步取得进展。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    88

    文章

    35757

    浏览量

    282423
  • 英伟达
    +关注

    关注

    22

    文章

    3973

    浏览量

    94354
  • A800
    +关注

    关注

    0

    文章

    14

    浏览量

    355
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    英伟黄仁勋:将向中国市场销售H20芯片 中国市场至关重要

    英伟CEO黄仁勋在北京访问期间发表声明称,将恢复在中国销售其H20 GPU芯片,并根据美国出口限制为
    的头像 发表于 07-15 14:32 ?703次阅读

    英伟拟再推中国特供GPU,今年6月量产!

    电子发烧友网综合报道 近年来,美国政府对华半导体出口管制政策不断收紧,英伟等半导体企业面临严峻挑战。为保持在中国市场的竞争力,英伟推出了
    发表于 05-27 00:03 ?4433次阅读

    特朗普要叫停英伟对华特供版 英伟H20出口限制 或损失55亿美元

    是“中国特供版”人工智能芯片;是英伟公司为符合美国出口规定专门为中国市场开发的定制芯片,H20
    的头像 发表于 04-16 16:59 ?1507次阅读

    英伟、高通布局AI投资版图,这些明星企业被收入囊中!

    模型并不会减少芯片的需求,相反,未来的计算需求只会增加,尤其是对计算基础设施的需求。 英伟也在利用其雄厚的资金大幅增加了对各种初创公司的投资,尤其是对
    的头像 发表于 03-25 09:22 ?1452次阅读

    国产AI芯片破局:国产TCB设备首次完成CoWoS封装工艺测试

    DeepSeek的突破性进展,让中国AI产业领域似乎迅速缩小了和美国的差距,然而整个国产模型的运行仍高度依赖英伟
    的头像 发表于 03-14 11:09 ?923次阅读
    <b class='flag-5'>国产</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b>破局:<b class='flag-5'>国产</b>TCB设备首次完成CoWoS封装工艺测试

    英伟杀疯了!Blackwell横扫市场,AMD、英特尔加入降本浪潮

    电子发烧友网报道(文/莫婷婷)2月27日凌晨,英伟公布2025财年第四财季的财务数据,这是DeepSeek面世后的第一份财报,业内人士尤为关注DeepSeek给英伟
    的头像 发表于 03-02 00:02 ?2034次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>杀疯了!Blackwell横扫市场,AMD、英特尔加入降本浪潮

    英伟收购AI初创公司Run:ai

    :ai作为一家专注于AI云计算软件平台开发的初创公司,其产品以高效利用高性能GPU资源为核心,致力于为用户提供更快速、更便捷的机器学习加速方案。通过此次收购,英伟
    的头像 发表于 12-31 10:46 ?607次阅读

    英伟Blackwell GPU未来一年订单爆满

    据摩根士丹利(大摩)透露,人工智能(AI芯片领域的领军企业英伟(NVIDIA)的管理层在近期的一系列与投资人的会议中,分享关于其下一代
    的头像 发表于 10-17 16:52 ?944次阅读

    Inflection AI转向英特尔Gaudi 3,放弃英伟GPU

    近日,人工智能技术公司Inflection AI宣布一项重要决策,其最新的企业平台将放弃采用英伟(Nvidia)的GPU,转而选择英特尔
    的头像 发表于 10-10 17:21 ?819次阅读

    英伟发布AI模型 Llama-3.1-Nemotron-51B AI模型

    英伟公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,这个AI模型是源
    的头像 发表于 09-26 17:30 ?1004次阅读

    挑战英伟:聚焦本土GPU领军企业崛起

    在全球图形处理单元(GPU)市场的霸主地位,特别是其关键硬件对训练大型AI模型(如ChatGPT背后的OpenAI模型)的不可或缺性,
    的头像 发表于 09-18 15:24 ?1182次阅读

    英伟投资日本AI公司Sakana AI

    英伟现身日本人工智能研发初创公司Sakana AIA轮融资名单中;据悉;Sakana AIA
    的头像 发表于 09-05 15:46 ?1033次阅读

    英伟Blackwell可支持10万亿参数模型AI训练,实时大语言模型推理

    电子发烧友网报道(文/李弯弯)在近日的Hot Chips 2024大会上,英伟公布下一代GPU架构Blackwell的更多细节信息,以及未来的产品路线图
    的头像 发表于 09-04 09:10 ?3885次阅读

    英伟震撼发布:全新AI模型参数规模跃升至80亿量级

    8月23日,英伟宣布,其全新AI模型面世,该模型参数规模高达80亿,具有精度高、计算效益大等优势,适用于
    的头像 发表于 08-23 16:08 ?1196次阅读

    成都汇阳投资关于华为新版芯片或挑战英伟国产算力值得关注?

    【华为将推出新款AI 芯片,瞄准英伟中国市场份额】 近年来AI 产业蓬勃发展,资本市场也出现
    的头像 发表于 08-19 11:44 ?1590次阅读