0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

浪潮、英伟达微软相继发布2500亿、5300亿参数的巨量模型,超过GPT-3

Carol Li ? 来源:电子发烧友网整理 ? 作者:李弯弯 ? 2021-10-18 14:41 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

由于模型越来越大,训练过程中硬件的优化变得尤为重要。从2019年下半年开始,各家分别开发出大规模并行训练、模型扩展技术,以期开发出更大的NLP模型。英伟达Megatron-LM、谷歌T5、微软Turing-NLG相继出现。

2020年6月OpenAI在发布了GPT-3,这是当时训练的最大模型,具有1750亿个参数。近段时间,浪潮、英伟达与微软相继发布2500亿参数、5300亿参数的巨量模型,超过GPT-3。

中国工程院院士王恩东认为,人工智能的大模型时代已经到来,利用先进算法,整合大规模数据,汇聚大量算力,训练出巨量人工智能模型是未来的发展方向……


英伟达与微软联合发布了5300亿参数的“威震天-图灵”

上周,英伟达与微软联合发布了5300亿参数的“威震天-图灵”自然语言生成模型(Megatron-TuringNLG)。据介绍,这样的量级不仅让它成为全球规模最大,同时也是性能最强的NLP模型。


训练过程一共使用了4480块英伟达A100 GPU,最终使该模型在一系列自然语言任务中——包括文本预测、阅读理解、常识推理、自然语言推理、词义消歧——都获得了前所未有的准确率。

此模型简称MT-NLG,是微软Turing NLG和英伟达Megatron-LM两者的“继任者”。Turing NLG由微软于2020年2月推出,参数为170亿;Megatron-LM来自英伟达,2019年8月推出,参数83亿。它俩在当时分别是第一、二大规模的Transfomer架构模型。

我们都知道大参数规模的语言模型效果会更好,但训练起来也很有挑战性,比如:即使是最大容量的GPU,也存不下如此规模的参数;如果不特别注意优化算法、软件和硬件堆栈,那么所需的大量计算操作可能会导致训练时间过长。

那这个参数已是GPT-3三倍的MT-NLG又是如何解决的呢?答案就是汲取“两家”所长,融合英伟达最先进的GPU加速训练设备,以及微软最先进的分布式学习系统,来提高训练速度。并用上千亿个token构建语料库,共同开发训练方法来优化效率和稳定性。

具体来说,通过借鉴英伟达Megatron-LM模型的GPU并行处理,以及微软开源的分布式训练框架DeepSpeed,创建3D并行系统。对于本文中这个5300亿个参数的模型,每个模型副本跨越280个NVIDIA A100 GPU,节点内采用Megatron-LM的8路张量切片(tensor-slicing),节点间采用35路管道并行(pipeline parallelism)。

然后再使用DeepSpeed的数据并行性进一步扩展到数千个GPU。最终在基于NVIDIA DGX SuperPOD的Selene超级计算机上完成混合精度训练。(该超级计算机由560个DGX A100服务器提供支持,每个DGX A100有8个 NVIDIA A100 80GB Tensor Core GPU,通过NVLink 和 NVSwitch相互完全连接)。

该模型使用了Transformer解码器的架构,层数、hidden dimension和attention head分别为 105、20480和128。训练所用数据集包括近20万本书的纯文本数据集Books3、问答网站Stack Exchange、维基百科、学术资源网站PubMed Abstracts、ArXiv、维基百科、GitHub等等,这些都是从他们先前搭建的Pile数据集中挑出的质量较高的子集。最终一共提取了2700亿个token。

浪潮发布2500亿参数的中文AI巨量模型“源1.0”

9月28日,浪潮人工智能研究院发布浪潮发布了2500亿参数的中文AI巨量模型“源1.0”。

“源1.0”不仅有高达5TB的全球最大中文高质量数据集,在总计算量和训练效率优化上都是空前的。源1.0几乎把近5年整个中文互联网的浩瀚内容全部读完,在收集并清洗数据后,最终获得5TB高质量数据,成为迄今业界最大的高质量中文数据集。

在语言智能方面,源1.0获得中文语言理解评测基准CLUE榜单零样本学习和小样本学习两类总榜冠军,获得小样本学习的文献分类、商品分类、文献摘要识别、名词代词关系等4项任务冠军。

“在数据量、参数规模与模型精度方面,源1.0均居全球之最。”浪潮人工智能研究院首席研究员吴韶华说。对标OpenAI的GPT-3,源1.0参数规模为2457亿,训练采用的中文数据集达5TB。相比GPT-3模型1750亿参数量和570GB训练数据集,源1.0参数规模领先40%,训练数据集规模领先近10倍。

“得益于我们设计模型时,对精度和计算性能的协同。”吴韶华说,“在算法上,我们解决了巨量模型训练不稳定的业界难题,提出稳定训练巨量模型的算法,打造了巨量模型推理方法创新;在数据方面,我们生成了迄今业界最大的高质量中文数据集;在算力上,我们通过算法与算力协同优化,极大提升了计算效率,在实现业界训练性能第一的同时,还达到了业界领先的精度。”

巨量模型是未来的发展方向

“认知智能是人工智能研究者追求的方向之一。”中国工程院院士王恩东告诉《中国科学报》,“除了加速深度学习技术,开发全新的算法范式研究方向外,大规模数据训练超大参数量的巨量模型也是未来发展方向,即利用先进的算法,整合大规模的数据,汇聚大量算力,训练出巨量人工智能模型。”

2020年6月,OpenAI发布了参数量高达1750亿的大模型GPT-3,该模型一推出就引起人工智能学界和业界的轰动。“语言模型是全球AI界的‘必争之地’。”一位人工智能研究领域的专家说,“参数规模大到远超我们想象的时候,会发生一些难以解释的现象。”

浪潮信息副总裁刘军同样认为,生命从简单进化到复杂,这种智能水平本身就是一种模型。如果把模型比作元宇宙中的生命,大模型的这种综合系统能力,可能会决定未来数字世界和智能世界里的智能水平。“人的神经元突触超过100万亿,而现有大模型的参数量还远远不够,所以我们还有很远路要走”。

伴随着人工智能应用广度与深度的不断提升,众多行业、诸多业务场景的智能化创新需求日益增多。然而当前大多数AI模型只能用于某一特定领域,通用性不强,这对AI技术提出了挑战,也限制了AI的产业化进程。

大模型在今天初露峥嵘绝非偶然。技术、算力、资源、需求等多因素的“风云际会”,让被AI业界视为“核力量”的大模型崭露头角。

电子发烧友综合报道,参考自量子位、浪潮服务器

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 微软
    +关注

    关注

    4

    文章

    6690

    浏览量

    105984
  • 浪潮
    +关注

    关注

    1

    文章

    475

    浏览量

    24791
  • 英伟达
    +关注

    关注

    22

    文章

    3957

    浏览量

    94103
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    英伟单季营收破300亿美元!Q2全球半导体Top15,几家欢喜几家愁?

    8月28日,美国半导体芯片龙头企业英伟发布2025财年第二季度报告,英伟Q2营收达到300.4亿
    的头像 发表于 08-30 01:06 ?4354次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>单季营收破300<b class='flag-5'>亿</b>美元!Q2全球半导体Top15,几家欢喜几家愁?

    英伟2026财年Q1营收公布 一季度营收441亿美元 英伟Q1净利润187.8亿美元

    英伟的业绩暴涨神话依然在继续,在5月29日英伟公司发布了2026财年第一季度财报。财报数据显示,该季度
    的头像 发表于 05-29 17:58 ?389次阅读

    英伟财报发布!Q4净利润220.91亿美元

    %。 英伟首席财务官克莱特·克雷斯披露,2025财年第四季度公司交付了110亿美元的Blackwell芯片。2025财年英伟营收达到13
    的头像 发表于 02-27 15:30 ?525次阅读

    英伟四季度营收393亿美元 英伟第四财季净利润增80%

    根据全球AI龙头英伟公司发布的截至1月26日的2025财年第四财季营业数据报告显示;第四财季营收达到393.31亿美元,较去年同期增长78%,高于分析师事前预期的380.5
    的头像 发表于 02-27 15:18 ?778次阅读

    英伟一半员工净资产破亿

    2500万美元(换算下来约合1.84亿元人民币)的惊人水平。 在AI浪潮席卷全球的大背景下,自2019年以来,英伟公司的股价如同坐上了火
    的头像 发表于 01-14 18:15 ?607次阅读

    中国移动与中国石油发布700亿参数昆仑大模型

    近日,中国移动与中国石油在北京联合举办了700亿参数昆仑大模型建设成果发布会,正式推出了这一行业重量级的大模型。 据悉,700
    的头像 发表于 12-04 11:17 ?934次阅读

    英伟拟1.65亿美元收购OctoAI

    英伟再次展现其在AI领域的雄心壮志,计划以约1.65亿美元的价格收购西雅图软件初创公司OctoAI。据OctoAI向股东披露的文件,英伟
    的头像 发表于 09-20 17:09 ?1172次阅读

    英伟预测机器人领域或迎“GPT-3时刻”

    未来2-3年内,机器人基础模型的研究将迎来重大突破,这一时刻被形象地比喻为机器人领域的“GPT-3时刻”。
    的头像 发表于 09-20 17:05 ?1114次阅读

    Jim Fan展望:机器人领域即将迎来GPT-3式突破

    英伟科学家9月19日,科技媒体The Decoder发布了一则引人关注的报道,英伟高级科学家Jim Fan在近期预测,机器人技术将在未来
    的头像 发表于 09-19 15:13 ?987次阅读

    英伟市值蒸发近2000亿美元

    英伟(Nvidia)在周四的美股交易中遭遇了重大挫折,股价暴跌超过6%,市值瞬间蒸发近2000亿美元。这一戏剧性下滑源于公司最新财报未能满足华尔街的超高预期,尽管其上一季度收入实现了
    的头像 发表于 08-30 15:38 ?781次阅读

    英伟高管解读Q2财报 但是英伟市值暴跌1.4万亿元

    的150亿美元。英伟算是交出了一份非常亮眼的成绩单,但是英伟公司发布的Q
    的头像 发表于 08-30 13:03 ?1183次阅读

    英伟震撼发布:全新AI模型参数规模跃升至80亿量级

    8月23日,英伟宣布,其全新AI模型面世,该模型参数规模高达80亿,具有精度高、计算效益大等优
    的头像 发表于 08-23 16:08 ?1149次阅读

    英伟市值暴增7500亿

    美东时间周一,科技股市场呈现分化态势,特斯拉股价小幅下滑,而苹果与微软则温和上涨。然而,在这场科技盛宴中,AI芯片领域的领头羊英伟却大放异彩,股价飙升超过4%,市值一夜之间暴增105
    的头像 发表于 08-13 17:48 ?1385次阅读

    AI芯片巨头英伟涨超4% 英伟市值暴增7500亿

    谁是美股最靓的仔?在人工智能浪潮之下AI芯片巨头英伟肯定有一席之地,特别是现在全球资本市场动荡之际,业界分析师多认为英伟是最佳“反弹股”
    的头像 发表于 08-13 15:33 ?1486次阅读