0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何加速实时工作负载

Xilinx赛灵思官微 ? 来源:Xilinx赛灵思官微 ? 2025-09-10 15:36 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

对于需要实时响应的数据中心工作负载,性能不仅是指原始吞吐量或处理能力。挑战在于:在保持吞吐量和能效的同时,实现确定性时延。

CPUGPU 仍将是基础架构。但正如系统架构师和数据中心运营商所发现的,在时延控制变得至关重要时,传统计算架构往往会遇到困难。对于那些寻求对性能、功耗和时延进行精细控制的用户来说,采用硬件自适应加速卡的自适应计算正在成为一种战略选项。

如果您正在探索如何加速实时工作负载,以下是一些基本考虑因素,有助于指导该过程,并着重介绍自适应计算的用武之地。

针对实时(而非只是原始)吞吐量构建

对于许多工作负载而言,可预测的响应时间至关重要。无论是在高频交易中,还是在数据流传感器处理中,仅靠快是不够的。您必须确保可靠情况下的快速性——无论输入变化或系统负载如何。CPU 和 GPU 拥有类似的编程模型,但依赖于线程调度和固定的存储器缓存层次结构,这可能会影响低时延响应时间。在这些架构上实现确定性性能通常需要过度配置( overprovisioning )资源、微调( fine-tuning )软件堆栈或隔离工作负载——这些都无法保证在不同系统负载下保持一致的时延。

由现场可编程门阵列( FPGA )或自适应 SoC(集成处理器子系统和专用 IP 的 FPGA)提供支持的加速卡通过提供硬件并行性和数据路径优化来解决这一问题。该架构可在电路层面进行动态编程,其中数据路径经过定制并“硬连接”至硅片本身,从而避免了不可预测的软件指令周期。这种方法能够实现始终如一的低时延性能,并对数据的处理及移动方式进行精细控制。

内存比您认为的更重要

在这些性能敏感型环境中,内存往往是隐藏的瓶颈。这不仅关乎加速器可用的内存大小,还关乎内存与计算的距离有多近,以及运行时的访问速度有多快。这正是自适应计算提供架构优势的地方,尤其是与片上高带宽存储器( HBM )结合使用时。

HBM 是一种成熟的 3D 封装 DRAM 技术,具备每秒 TB 级的带宽,可满足数据密集型加速卡的需求。但 FPGA 和自适应 SoC 还为它们带来了灵活应变的存储器层次结构,其中包括紧邻处理逻辑、大小各异的嵌入式片上 SRAM。这可以实现快速、低时延的缓冲和中间存储,无需往返外部 DRAM。对于流式应用或实时 AI 推理,这种接近性可降低时延并提升吞吐量,而不会阻塞流水线。

将您的加速卡直接连接至网络

如果您的加速卡会处理来自网络的流式数据,为何不将其直接连接至网络?传统的加速卡依靠 PCIe接收传入数据——通常经过网络接口卡( NIC )进行路由,然后通过主机 CPU 和系统内存,最终到达加速器。这会带来时延并消耗资源。

基于 FPGA 的网络连接加速卡可直接连接以太网,从而实现在数据到达时进行实时处理。这也为高性能计算( HPC )环境提供了经由以太网的可扩展计算集群。

随工作负载演进调整您的加速卡,

而非基础架构

如今推动您的基础设施发展的工作负载与未来扩展基础架构的工作负载将有所不同,而自适应计算能够随着应用发展而演进。例如,在网络防火墙中,加密协议和威胁检测模型在不断演进。在同一服务器节点上部署压缩、解压缩和分析功能的存储机架中,灵活的硬件可以随着数据量的增长或压缩格式的改变而调整计算管线。

同一加速卡的架构灵活性可以带来长期效益,不仅能实现实时性能,还能在工作负载需求变化时保持敏捷性——所有这些都在同一张卡、同一台服务器和同一个机架上实现。

借助适合的硬件专业技术加速部署

要最大限度提升基于 FPGA 的加速卡性能,需要获得 FPGA 开发人员的帮助。无论是通过内部团队、设计合作伙伴,还是预构建 FPGA IP 的提供商,成功都取决于能否构建或集成满足严格时延、吞吐量和内存访问要求的特定应用逻辑。

为了加快部署速度,需要寻找一款可提供强大 FPGA 工具链、预验证 IP 和合作伙伴生态系统的平台,该平台支持从 RTL 开发到完整解决方案集成的所有环节——助力您的团队满怀信心地从概念走向量产。

下一步

这些只是低时延和工作负载灵活应变性至关重要的几项考虑因素。尽管 CPU 和 GPU 仍然作为数据中心的核心,但它们并非永远最适合流式工作负载。自适应平台——例如集成 HBM 的 AMD Alveo V80 计算加速卡——则提供了另一条途径。凭借连网连接、自适应硬件架构和高带宽存储器,Alveo V80 计算加速卡可以在最关键时刻提供实时性能。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19995

    浏览量

    239518
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11151

    浏览量

    219299
  • 数据中心
    +关注

    关注

    16

    文章

    5351

    浏览量

    73953

原文标题:在数据中心进行实时加速

文章出处:【微信号:赛灵思,微信公众号:Xilinx赛灵思官微】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    通过NVIDIA RTX PRO服务器加速企业工作负载

    从大语言模型(LLM)到代理式 AI 推理和物理 AI ,随着 AI 工作负载的复杂性和规模不断增加,人们对更快、扩展性更高的计算基础设施的需求空前强烈。满足这些需求就要从基础开始重新思考系统架构。
    的头像 发表于 06-12 15:31 ?418次阅读
    通过NVIDIA RTX PRO服务器<b class='flag-5'>加速</b>企业<b class='flag-5'>工作</b><b class='flag-5'>负载</b>

    NVIDIA加速的Apache Spark助力企业节省大量成本

    随着 NVIDIA 推出 Aether 项目,通过采用 NVIDIA 加速的 Apache Spark 企业得以自动加速其数据中心规模的分析工作负载,从而节省数百万美元。
    的头像 发表于 03-25 15:09 ?699次阅读
    NVIDIA<b class='flag-5'>加速</b>的Apache Spark助力企业节省大量成本

    程控水冷负载解析

    程控水冷负载是一种通过计算机程序控制水冷系统对特定负载进行冷却的技术,以下是关于它的解析: 基本原理 阻性负载产热 :许多电气设备如变压器、电机、变频器等在工作过程中,电流通过导线和线
    发表于 02-18 16:04

    NetApp革新块存储,赋能现代工作负载

    智能数据基础设施领域的领先企业NetApp?,近日宣布对其企业存储产品组合进行了重大更新,以更好地满足现代工作负载的多样化需求。此次更新重点扩充了NetApp ASA A系列,推出了一系列专为加速
    的头像 发表于 02-17 10:07 ?489次阅读

    Arm技术助力Google Axion处理器加速AI工作负载推理

    由 Arm Neoverse V2 平台赋能的 Google Axion 处理器已在 Google Cloud 上正式上线,其中,C4A 是首款基于 Axion 的云虚拟机,为基于 CPU 的人工智能 (AI) 推理和通用云工作负载实现了显著的性能飞跃。
    的头像 发表于 02-14 14:11 ?714次阅读
    Arm技术助力Google Axion处理器<b class='flag-5'>加速</b>AI<b class='flag-5'>工作</b><b class='flag-5'>负载</b>推理

    HPC工作负载管理的关键要素

    HPC工作负载管理是一个复杂而精细的过程,涉及资源分配、作业调度、性能监控与优化以及故障处理与恢复等多个关键要素。下面,AI部落小编带您了解HPC工作负载管理的关键要素。
    的头像 发表于 02-08 09:53 ?410次阅读

    亚马逊云科技发布Amazon Q Developer,助力工作负载转型

    在近日举行的2024亚马逊云科技re:Invent全球大会上,一项旨在加速大规模传统工作负载转型的新功能——Amazon Q Developer,正式亮相。这款功能强大的软件开发生成式人工智能(AI
    的头像 发表于 12-26 11:32 ?733次阅读

    燃料电池测试负载如何进行负载测试?

    、空气供应系统、冷却系统、负载模拟器等。确保所有设备正常工作,连接正确。 设定测试参数:根据燃料电池的额定工况和实际应用需求,设定测试参数,如温度、压力、燃料浓度、负载电流等。这些参数将对燃料电池
    发表于 12-16 15:53

    深度学习工作负载中GPU与LPU的主要差异

    ,一个新的竞争力量——LPU(Language Processing Unit,语言处理单元)已悄然登场,LPU专注于解决自然语言处理(NLP)任务中的顺序性问题,是构建AI应用不可或缺的一环。 本文旨在探讨深度学习工作负载中GPU与LPU的主要差异,并深入分析它们的架构
    的头像 发表于 12-09 11:01 ?3631次阅读
    深度学习<b class='flag-5'>工作</b><b class='flag-5'>负载</b>中GPU与LPU的主要差异

    燃料电池测试负载工作原理是什么?

    ,燃料电池的性能参数如输出电压、电流、功率等需要通过专门的测试设备进行实时监测和分析。 燃料电池测试负载的主要作用是模拟燃料电池在实际工作过程中的负载情况,以便更准确地评估其性能。测试
    发表于 12-06 16:31

    MEMS加速度计的工作原理是什么

    MEMS加速度计的工作原理主要基于牛顿第二定律,即力等于质量乘以加速度。以下是对其工作原理的介绍: 一、核心部件与结构 MEMS加速度计的核
    的头像 发表于 11-20 10:09 ?2833次阅读

    程控水冷阻性负载主要工作方式有哪些

    程控水冷阻性负载是一种模拟电力系统负载的设备,主要用于测试电力设备的性能和稳定性。其主要工作方式有以下几种: 恒流工作模式:在恒流工作模式下
    发表于 11-05 11:25

    负载管和驱动管怎么区别

    于控制或驱动其他电子元件(如负载管)的电子管。它的作用是放大或转换信号,以控制负载管的工作状态。 2. 工作原理 负载
    的头像 发表于 10-10 11:24 ?1234次阅读

    实时负载诊断

    电子发烧友网站提供《实时负载诊断.pdf》资料免费下载
    发表于 09-23 11:26 ?0次下载
    <b class='flag-5'>实时</b><b class='flag-5'>负载</b>诊断

    电子负载工作模式和技术参数

    电子负载作为电子测试领域的重要设备,其工作模式和技术参数对于理解和应用该设备至关重要。以下将详细阐述电子负载工作模式和技术参数。
    的头像 发表于 09-14 17:27 ?4001次阅读