0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

杭州灵汐类脑智算集群实现大模型快速推理

北京灵汐科技有限公司 ? 来源:脑启社区 ? 2025-08-18 16:06 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

以下文章来源于脑启社区,作者脑启社区

据悉,“杭州灵汐类脑智算集群”已于7月底实现了大模型快速推理API的企业服务试运行。该集群由杭州灵汐类脑科技有限公司牵头搭建运营,中国电信、中国电子科技南湖研究院以及脑启社区作为合作方参与,由杭州电信具体承担集成建设。该集群部署在中国电信杭州智算中心,算力规模超200POPS。这也是类脑智算集群在全球范围内,首次以支持大模型快速推理的方式,走向商用试运行。

作为类脑智能技术的创新应用成果,该智算集群具有”存算一体、众核并行、稀疏计算、事件驱动”的特性,可显著提升计算效率、大幅降低能耗,实现大语言模型推理的“一快、一低、一降”:一是推理速度快,单用户的推理延迟控制在毫秒级别,速度性能相对于传统方案有明显优势(可流畅响应实时交互及长本文深度推理),告别卡顿;二是首token延迟低,可降至百毫秒乃至十毫秒级;三是智算集群的功耗大幅下降,较业界同等推理算力水平可降低功耗二分之一至三分之二以上。异构融合类脑芯片具有兼容PyTorch框架的类CUDA软件栈,可直接服务于多类开源大模型的快速推理、而不需要转换类脑算法

当前,大模型推理普遍存在吞吐速度慢(每秒十到几十词输出)和高延迟问题(常常超过1秒甚至数秒),对众多行业场景构成了制约。在此背景下,灵汐科技基于类脑智能技术给出了“高实时、高吞吐、低延迟”的推理服务解决方案,将在金融应用、情感陪聊、快速导览、大规模数据标注以及无人机实时航拍处理、灾害预警与应急处置等领域场景逐步落地。据介绍,该智算集群(中心)将持续升级,新一代类脑智算高密度计算平台也将在近期正式发布推出,集群能效比预计将进一步提升。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 集群
    +关注

    关注

    0

    文章

    119

    浏览量

    17485
  • 灵汐科技
    +关注

    关注

    0

    文章

    15

    浏览量

    1366
  • 大模型
    +关注

    关注

    2

    文章

    3244

    浏览量

    4237

原文标题:首次商用试运行,类脑智算集群支持大模型快速推理服务

文章出处:【微信号:北京灵汐科技有限公司,微信公众号:北京灵汐科技有限公司】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    启社区第二届智能创新大赛正式启动

    机智能全国重点实验室、北京科技、中国电信杭州中心协办。旨在挖掘刚需应用,形成一批可规
    的头像 发表于 08-18 16:11 ?132次阅读

    科技与广电五舟达成战略合作

    2025年8月15日,北京科技有限公司与广州广电五舟科技股份有限公司经友好协商,现已达成战略合作协议。双方结合各自优势,进一步聚焦国产力底座构建、行业解决方案优化,在
    的头像 发表于 08-18 16:05 ?146次阅读

    科技斩获第三届“华彩杯”力大赛东区决赛二等奖

    2025年7月10-11日,第三届“华彩杯”力大赛东区决赛专题赛暨颁奖典礼在杭州举行。“科技
    的头像 发表于 08-04 14:45 ?571次阅读

    科技上线赤兔推理引擎服务,创新解锁FP8大模型

    模型轻量化部署方案。用户通过远程力平台预置的模型镜像与AI工具,仅需50%的GPU力即可解锁大模型
    的头像 发表于 07-30 21:44 ?248次阅读

    一文看懂AI集群

    最近这几年,AI浪潮席卷全球,成为整个社会的关注焦点。大家在讨论AI的时候,经常会提到AI集群。AI的三要素,是力、算法和数据。而AI集群
    的头像 发表于 07-23 12:18 ?216次阅读
    一文看懂AI<b class='flag-5'>算</b>力<b class='flag-5'>集群</b>

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型
    发表于 07-03 19:43

    亿铸科技入围工信部力强基揭榜行动

    、网络、计算的协同优化,旨在通过模型加速与调度加速等创新方法,实现大规模异构集群在大模型推理
    的头像 发表于 06-30 14:57 ?540次阅读

    DeepSeek推动AI力需求:800G光模块的关键作用

    限制力提升的瓶颈。800G光模块通过更高的传输速率,能够支持大规模GPU集群间的数据传输,保证各节点之间的快速互联和低延迟通信,从而提升整个系统的计算效率与吞吐量。对于DeepSeek等超大
    发表于 03-25 12:00

    YOLOv5中rgb888p_size这个参数要与模型推理和训练的尺寸一致吗?一致会达到更好的效果?

    YOLOv5中rgb888p_size这个参数要与模型推理和训练的尺寸一致吗,一致会达到更好的效果
    发表于 03-11 08:12

    科技开源深度学习应用开发平台BIDL

    富案例等问题,一直制约着其广泛应用。为了突破这一瓶颈,科技联合启社区正式宣布开源深度学习应用开发平台BIDL(Brain-insp
    的头像 发表于 03-05 09:13 ?1096次阅读
    <b class='flag-5'>灵</b><b class='flag-5'>汐</b>科技开源<b class='flag-5'>类</b><b class='flag-5'>脑</b>深度学习应用开发平台BIDL

    浪潮信息发布元R1推理服务器

    近日,浪潮信息正式推出了其创新的元R1推理服务器。这款服务器通过系统的创新与软硬件的协同优化,实现了对DeepSeek R1 671B模型的单机部署与运行,为客户在智能应用部署方面带
    的头像 发表于 02-17 10:32 ?795次阅读

    KA200芯片完成DeepSeek-R1系列模型适配

    节后开工第一天,科技团队联合技术社区(“启社区“)的开发者,仅用半天时间就完成了DeepSeek-R1系列
    的头像 发表于 02-06 15:40 ?1487次阅读

    SynSense时识科技亮相CES,展现智能“芯”实力

    了一系列前沿的芯片产品,包括感存一体动态视觉智能SoC Speck?系列、感知DVS事件相机系列以及
    的头像 发表于 01-13 15:37 ?745次阅读

    杭州伴科技推动AR+AI产业新格局

    2024年12月4日,由“力小镇杯”Create@力应用创新大赛在杭州成功举办。以“大力时代下的AI应用挑战”为主题的圆桌对话,更是汇聚了多位AI领域领军人物,共同探讨AI技术商
    的头像 发表于 12-06 09:33 ?1841次阅读

    高效大模型推理综述

    模型由于其在各种任务中的出色表现而引起了广泛的关注。然而,大模型推理的大量计算和内存需求对其在资源受限场景的部署提出了挑战。业内一直在努力开发旨在提高大模型
    的头像 发表于 11-15 11:45 ?1645次阅读
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>综述