0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

天数智芯天垓100率先完成百亿级参数大模型训练

天数智芯 ? 来源:天数智芯 ? 2023-06-12 15:23 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

6月,在第五届智源大会AI系统分论坛上,上海天数智芯半导体有限公司(以下简称“天数智芯”)对外宣布,在天垓100加速卡的算力集群,基于北京智源人工智能研究院(以下简称“智源研究院”)70亿参数的Aquila语言基础模型,使用代码数据进行继续训练,稳定运行19天,模型收敛效果符合预期,证明天数智芯有支持百亿级参数大模型训练的能力。

在北京市海淀区的大力支持下,智源研究院、天数智芯与爱特云翔共同合作,联手开展基于自主通用GPU的大模型CodeGen(高效编码)项目,通过中文描述来生成可用的C、JavaPython代码以实现高效编码。智源研究院负责算法设计、训练框架开发、大模型的训练与调优,天数智芯负责提供天垓100加速卡、构建算力集群及全程技术支持,爱特云翔负责提供算存网基础硬件及智能化运维服务。

在三方的共同努力下,在基于天垓100加速卡的算力集群上,100B Tokens编程语料、70亿参数量的AquilaCode大模型参数优化工作结果显示,1个Epoch后loss下降到0.8,训练速度达到87K Tokens/s,线性加速比高达95%以上。与国际主流的A100加速卡集群相比,天垓100加速卡集群的收敛效果、训练速度、线性加速比相当,稳定性更优。在HumanEval基准数据集上,以Pass@1作为评估指标,自主算力集群训练出来的模型测试结果达到相近参数级别大模型的SOAT水平,在AI编程能力与国际主流GPU产品训练结果相近。

cfc30840-08ef-11ee-962d-dac502259ad0.png

图 基于天垓100算力集群的AquilaCode大模型训练性能采样

天垓100率先完成百亿级参数大模型训练,迈出了自主通用GPU大模型应用的重要的一步。这一成果充分证明了天垓产品可以支持大模型训练,打通了国内大模型创新发展的关键“堵点”,对于我国大模型自主生态建设、产业链安全保障具有十分重大的意义。

接下来,天数智芯将与合作伙伴们继续深入合作,建设更大规模的天垓100算力集群,完成更大参数规模的大模型训练,以自主通用GPU产品更好支持国内大模型创新应用,进一步夯实我国算力基础,助力人工智能产业自主生态建设。
责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编程
    +关注

    关注

    88

    文章

    3694

    浏览量

    95544
  • 模型
    +关注

    关注

    1

    文章

    3547

    浏览量

    50742
  • 天数智芯
    +关注

    关注

    0

    文章

    99

    浏览量

    6282

原文标题:天垓100率先完成百亿级参数大模型训练,天数智芯迎来新的里程碑

文章出处:【微信号:IluvatarCoreX,微信公众号:天数智芯】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    万亿参数!元脑企智一体机率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ --?浪潮信息宣布元脑企智一体机已率先完成对Kimi K2 万亿参数模型的适配支持,并实现单用户70 tokens/s的流畅输出速度,为企业客户
    的头像 发表于 07-22 09:27 ?223次阅读
    万亿<b class='flag-5'>参数</b>!元脑企智一体机<b class='flag-5'>率先</b>支持Kimi K2大<b class='flag-5'>模型</b>

    沐曦MXMACA软件平台在大模型训练方面的优化效果

    在如今的人工智能浪潮中,大规模语言模型(上百亿乃至千亿参数)正迅速改变着我们的工作和生活。然而,训练这些庞大的模型往往面临“算力不足、显存不
    的头像 发表于 07-03 14:09 ?1115次阅读
    沐曦MXMACA软件平台在大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>方面的优化效果

    率先展开文心系列模型深度技术合作

    6月30日,百度正式开源文心大模型4.5系列等10款模型,并实现预训练权重和推理代码的完全开源,兆率先与文心系列
    的头像 发表于 07-01 10:49 ?517次阅读

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端侧部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5开源版)在其GPU硬件上的端侧部署。适配完成后,开发者可在搭载ImaginationGPU的设
    的头像 发表于 07-01 08:17 ?489次阅读
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b><b class='flag-5'>完成</b>文心大<b class='flag-5'>模型</b>的端侧部署

    MediaTek玑9400率先完成阿里Qwen3模型部署

    通义大模型团队在玑 9400 旗舰移动平台上率先完成 Qwen3(千问 3)的端侧部署。未来,搭载玑 9400 移动平台的设备可充分发挥
    的头像 发表于 05-08 10:11 ?615次阅读

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的算力突破

    近年来,随着千亿参数模型的崛起,AI训练对算力的需求呈现指数增长。传统服务器架构在应对分布式训练、高并发计算和显存优化等场景时逐渐显露瓶
    的头像 发表于 04-24 09:27 ?382次阅读

    首创开源架构,玑AI开发套件让端侧AI模型接入得心应手

    PIX GP模型的整合,并且针对模型进行全链路微秒分析,以确保最佳的端到端性能表现。在双方的整个合作流程中,开发效率提升了30%。 玑AI生态同样拓展到了智能座舱领域。联发科和绝影
    发表于 04-13 19:52

    训练好的ai模型导入cubemx不成功怎么处理?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 03-11 07:18

    完成DeepSeek-R1大模型本地化部署

    近日,行正式宣布完成 DeepSeek-R1 大模型本地化部署,实现在多场景、多产品中应用。解锁“”玩法,开启“”未来!
    的头像 发表于 02-24 15:17 ?962次阅读

    天数加速DeepSeek全系列模型适配

    天数正携手合作伙伴,以惊人的速度推进DeepSeek全系列模型的适配与上线工作。目前,多款DeepSeek模型服务已正式登陆各大平台,为用户带来多样化的选择。 其中,DeepSee
    的头像 发表于 02-10 15:30 ?1091次阅读

    昆仑率先完成Deepseek训练推理全版本适配

    本文是昆仑适配DeepSeek系列推文第一篇,将于近期分别推出在昆仑P800上进行DeepSeek-V3/R1推理、训练的深度文章,干货满满、持续关注!
    的头像 发表于 02-06 15:13 ?1599次阅读
    昆仑<b class='flag-5'>芯</b><b class='flag-5'>率先</b><b class='flag-5'>完成</b>Deepseek<b class='flag-5'>训练</b>推理全版本适配

    天数与无问穹合作突破千卡集群训练优化

    近日,天数与无问穹宣布达成深度合作,并在千卡集群训练优化领域取得了重大技术突破。这一合作基于天数
    的头像 发表于 01-21 14:31 ?993次阅读

    紫光国翼云完成兼容互认证

    近日,紫光国全国产服务器内存模组SCC32GP12C2F1C-32AA与翼云CTyunOS系统V2.0完成了产品兼容性认证,取得互认证明。
    的头像 发表于 01-06 16:55 ?796次阅读

    什么是大模型、大模型是怎么训练出来的及大模型作用

    本文通俗简单地介绍了什么是大模型、大模型是怎么训练出来的和大模型的作用。 ? 什么是大模型模型
    的头像 发表于 11-25 09:29 ?1.4w次阅读
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>训练</b>出来的及大<b class='flag-5'>模型</b>作用

    摩尔线程与羽人科技完成大语言模型训练测试

    近日,摩尔线程与羽人科技携手宣布,双方已成功实现夸娥(KUAE)千卡智算集群与羽人系列模型解决方案的训练兼容适配。在本次测试中,羽人科技通过摩尔线程夸娥千卡智算集群,高效完成了70亿参数
    的头像 发表于 08-27 16:19 ?898次阅读